Этого треда уже нет.
Это копия, сохраненная 3 марта 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Это копия, сохраненная 3 марта 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
336 Кб, 861x663
Исследователи из МГУ разработали новую модель для ускоренной разработки лекарств. Она генерирует 90% химически валидных лекарственных соединений, способных связываться с заданным белком, используя лишь его аминокислотную последовательность. Модель позволит существенно ускорить и упростить процесс создания новых препаратов. Статья опубликована в журнале Scientific Reports.
«Мы использовали глубокую нейронную сеть “Трансформер”. Эту архитектуру придумали исследователи из Google Brains в 2017 году для обработки естественного языка. Трансформер состоит из энкодера и декодера. Энкодер отображает входную последовательность символов в некоторый вектор. Затем декодер посимвольно генерирует на выходе последовательность, используя этот вектор. Одной из важнейших особенностей Трансформера являются self attention слои. Self attention — это механизм внимания, который устанавливает связи между различными участками одной и той же последовательности и на основании этой информации строит ее представление. В нашей задаче в качестве слов мы рассматриваем аминокислоты и отдельные символы строкового представления молекулы (SMILES)», — рассказала соавтор исследования Дарья Гречишникова.
Разработка лекарственных препаратов — дорогой и долгий процесс, один из его важнейших этапов — поиск молекулы, способной воздействовать на белок-мишень. Большинство методов основывается на трехмерной структуре белка или же на информации о уже известных лигандов, связывающихся с данным белком-мишенью. В настоящее время активно исследуется возможность применения методов машинного обучения для решения этих задач.
Self attention-слою требуется константное число последовательных операций для установления связей между любыми элементами последовательности, что позволяет ему справляться с длинными последовательностями. Этот механизм подходит для задачи перевода последовательности белка в строковое представление лиганда по двум причинам. Ученые впервые представили белок-специфичный дизайн лекарств как проблему перевода между «языком» аминокислот и строковым представлением молекулярной структуры. При этом белок рассматривается как «контекст» для генерации связывающийся с ним молекулы. Такая постановка задачи позволила ученым адоптировать одну из самых успешных архитектур в области машинного перевода к задачам генерации молекул. Оказалось, что аминокислотной последовательности белка достаточно для того, чтобы сгенерировать молекулы, связывающиеся с заданным белком.
https://indicator.ru/medicine/v-rossii-sozdali-model-dlya-uskorennoi-razrabotki-lekarstv-01-03-2021.htm
«Мы использовали глубокую нейронную сеть “Трансформер”. Эту архитектуру придумали исследователи из Google Brains в 2017 году для обработки естественного языка. Трансформер состоит из энкодера и декодера. Энкодер отображает входную последовательность символов в некоторый вектор. Затем декодер посимвольно генерирует на выходе последовательность, используя этот вектор. Одной из важнейших особенностей Трансформера являются self attention слои. Self attention — это механизм внимания, который устанавливает связи между различными участками одной и той же последовательности и на основании этой информации строит ее представление. В нашей задаче в качестве слов мы рассматриваем аминокислоты и отдельные символы строкового представления молекулы (SMILES)», — рассказала соавтор исследования Дарья Гречишникова.
Разработка лекарственных препаратов — дорогой и долгий процесс, один из его важнейших этапов — поиск молекулы, способной воздействовать на белок-мишень. Большинство методов основывается на трехмерной структуре белка или же на информации о уже известных лигандов, связывающихся с данным белком-мишенью. В настоящее время активно исследуется возможность применения методов машинного обучения для решения этих задач.
Self attention-слою требуется константное число последовательных операций для установления связей между любыми элементами последовательности, что позволяет ему справляться с длинными последовательностями. Этот механизм подходит для задачи перевода последовательности белка в строковое представление лиганда по двум причинам. Ученые впервые представили белок-специфичный дизайн лекарств как проблему перевода между «языком» аминокислот и строковым представлением молекулярной структуры. При этом белок рассматривается как «контекст» для генерации связывающийся с ним молекулы. Такая постановка задачи позволила ученым адоптировать одну из самых успешных архитектур в области машинного перевода к задачам генерации молекул. Оказалось, что аминокислотной последовательности белка достаточно для того, чтобы сгенерировать молекулы, связывающиеся с заданным белком.
https://indicator.ru/medicine/v-rossii-sozdali-model-dlya-uskorennoi-razrabotki-lekarstv-01-03-2021.htm
346 Кб, 993x771
>>6642 (OP)
единственное что хуйловики разрабатывают это ускоренное повышение цен на лекарства
глицин стоил раньше 12р буквально пару лет назад , сейчас уже стоит 70 рублей, поменяли только коробку
вот это наебизнес чисто по хуйловски, по либерастически
>Исследователи из МГУ разработали новую модель для ускоренной разработки лекарств.
единственное что хуйловики разрабатывают это ускоренное повышение цен на лекарства
глицин стоил раньше 12р буквально пару лет назад , сейчас уже стоит 70 рублей, поменяли только коробку
вот это наебизнес чисто по хуйловски, по либерастически
>>6656
Никто не ожидал, что эту бесполезную хуйню действительно будет кто-то брать. Если дебилы хотят отдавать 12р за нихуй, то и 70 отдадут. А потом и по 500 можно сделать с чистой совестью, хуле, все равно от недостатка этого в организме никто не умрет, а от достатка - не вылечится.
>глицин стоил раньше 12р буквально пару лет назад , сейчас уже стоит 70 рублей, поменяли только коробку
Никто не ожидал, что эту бесполезную хуйню действительно будет кто-то брать. Если дебилы хотят отдавать 12р за нихуй, то и 70 отдадут. А потом и по 500 можно сделать с чистой совестью, хуле, все равно от недостатка этого в организме никто не умрет, а от достатка - не вылечится.
77 Кб, 600x670
>>6723
это ты (лахтодырявый выблядок) и твой хозяин хуйло
ведь именно он продаёт фуфломицины и именно он стоит за подорожанием ВСЕГО стремительными темпами в пидерахии
>бесполезная хуйня
это ты (лахтодырявый выблядок) и твой хозяин хуйло
ведь именно он продаёт фуфломицины и именно он стоит за подорожанием ВСЕГО стремительными темпами в пидерахии
Ура!
>>6777
Пиздец тебя кроет
Пиздец тебя кроет
>>6951
моча подзалупная
если и есть накрутки то только от лахтошвалей
>91 два окатыша сисяна? Или опять накрутка?
моча подзалупная
если и есть накрутки то только от лахтошвалей
>>6642 (OP)
А в Свинорабии что бы вы думали? Самый большой трiзуб из говна!
А в Свинорабии что бы вы думали? Самый большой трiзуб из говна!
Пока Россия находится на пике научного прогресса, хохлы прозябают в нищете и убожестве. А ведь когда-то были частью одной страны, странно даже вспоминать.
>>6642 (OP)
Опуская политсрач, хочу сказать, что тема ахуенная
Опуская политсрач, хочу сказать, что тема ахуенная
102 Кб, 720x1280
>>6656
Есть по 40.
Есть по 40.
Тред утонул или удален.
Это копия, сохраненная 3 марта 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Это копия, сохраненная 3 марта 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.