Среднее время прочтения — 5 мин.

Оказывается, нейросети, которые были изначально предназначены для обработки текстов, выступают отличными моделями того, как наш мозг понимает пространство. 

Читает Александр Тарасов
Подкаст на YouTube, Apple, Spotify и других сервисах

Нам все еще сложно понять, как мозг упорядочивает и использует информацию о пространстве: где мы находимся, что за углом, как куда-то добраться.  Для этого нужно задействовать целую совокупность воспоминаний и пространственную информацию, хранящуюся в десятках миллиардов нейронов, каждый из которых связан с тысячами других. Нейробиологи выделили нейроны решетки (вид нейронов в головном мозге, которые помогают ориентироваться в пространстве — прим. Newочём) в качестве ключевых элементов, отвечающих за составление мозгом карты местности. А вот продвинуться дальше уже сложно: исследователи ведь не могут извлечь из мозга серое вещество и изучить его, чтобы понаблюдать, как туда в форме изображений, звуков и запахов попадают пространственные воспоминания и как они позже взаимодействуют друг с другом. 

Искусственный интеллект предлагает иное решение. Многие годы нейроученые  использовали для моделирования возбуждения нейронов в мозге разные виды нейросетей — движков, за счет которых обеспечивается работа большинства deep-приложений. Недавнее исследование показало, что гиппокамп, крайне важная для памяти часть мозга,  на самом деле ни что иное, как трансформер. Так называют особый тип архитектуры нейросетей, появившийся в 2017 году и перевернувший процесс обработки языка машинами. Новые модели, созданные учеными, отслеживают пространственную информацию  так, как это делает сам мозг. 

Джеймс Уиттингтон — специалист в области когнитивной нейробиологии, который совмещает работу в Стэнфордском университете и лаборатории Тима Беренса в Оксфорде. Он утверждает, что если эти новые модели соответствуют трансформерам, то значит, они работают куда лучше и легко обучаемы.

Работы Уиттингтона и других ученых наводят на мысль о том, что трансформеры могут в значительной мере помочь моделям нейросетей лучше имитировать виды вычислений, выполняемых нейронами решетки и другими составляющими мозга. По словам Уиттингтона, подобные модели расширили бы наше понимание того, как работают нейронные сети и, что более вероятно, как в мозге производятся вычисления. 

«Мы не пытаемся создать электронную версию мозга, — объясняет Дэвид Ха, исследователь в сфере искусственного интеллекта, который работает над трансформерами в Google Brain (исследовательский проект Google по изучению искусственного интеллекта на основе глубокого обучения, именно в его рамках была создана архитектура трансформер — прим. Newочём). — Но можем ли мы создать механизм, способный выполнять ту же работу, что и мозг?»

Трансформеры впервые появились пять лет назад как новый способ обработки естественного языка искусственным интеллектом. Они стали тем самым секретным элементом знаменитых программ вроде BERT и GPT-3, которые генерируют правдоподобные тексты песен, сочиняют шекспировские сонеты и играют роль представителей службы поддержки.  

Трансформеры используют специальный механизм внимания self-attention, в котором все вводимые данные (слово, пиксель, числовая последовательность) всегда связаны между собой. (Остальные нейросети связывают вводимые данные только с некоторыми конкретными другими входными данными.) Хотя трансформеры были изобретены для решения языковых задач, они уже преуспели, например, в классификации изображений, а теперь еще и в моделировании мозга. 

Звучит впечатляюще, правда? Если и вам хочется прикоснуться к науке, то один из возможных путей развития – это изучение  дата сайенс. Это область знаний на стыке прикладной математики, аналитики, программирования и обработки данных. В Нетологии верят, что в Data Science может работать каждый. Направлений в этой области много, а значит — много возможностей проявить свои таланты.

Если вам интересно, как передвигаются беспилотники, смартфоны узнают людей, а алгоритмы читают тексты и фильтруют письма в вашей почте — возможно, эта сфера именно для вас. Влюбиться в аналитику и  вдохновиться на освоение новой профессии можно на бесплатном вводном курсе. Определить, с чего начать, и подготовить план действий вы сможете на бесплатном курсе Data Science: будущее для каждого. Вам помогут проанализировать свои способности и понять, как именно вы можете развивать карьеру в Data Science.

А для тех, кто уже знает, какую профессию выбрать и в чем дальше развиваться — Нетология подготовила подарок — промокод NEWOCHEM. Его можно применить при покупке любого курса (кроме направлений Высшее образование и Lifestyle and hobby) и получить 10%-ную скидку. Скидка суммируется с другими акциями и скидками. Промокод действует до конца 2022 года. 

В 2020 году исследователь в области ИИ Зепп Хохрайтер из Линцского университета и его команда использовали трансформер для модернизации модели извлечения памяти под названием «нейронная сеть Хопфилда». Эти нейросети были  впервые представлены 40 лет назад физиком из Принстонского универститета Джоном Хопфилдом, и они работают по общему правилу: одновременно активные нейроны строят друг с другом прочные связи.

Заметив, что исследователи ищут более совершенные модели для извлечения памяти, Хохрайтер и его коллеги обратили внимание на связь между тем, как извлекает воспоминания новый класс нейросетей Хопфилда и как используют механизм внимания трансформеры. Новые нейросети Хопфилда, разработанные Хопфилдом и Дмитрием Кротовым в лаборатории ИИ MIT-IBM Watson, могут, благодаря более надежным соединениям, хранить и извлекать больше информации, чем обычные. Команда Хохрайтера усовершенствовала их, добавив принцип, который действует как механизм внимания в трансформерах. 

В начале этого года Уиттингтон и Беренс усовершенствовали этот подход, модифицировав трансформер так, чтобы вместо восприятия информации в качестве линейной последовательности, то есть цепочки слов в предложении, он кодировал ее координатами в многомерных пространствах. Эта «хитрость», как назвали ее ученые, в дальнейшем улучшила эффективность модели в решении нейрозадач. Также оказалось, что модель математически эквивалентна моделям возбуждения нейронов решетки, которые видно при помощи функционального МРТ-сканирования. 

«У нейронов решетки такое потрясающее, красивое, правильное строение, и они выстраиваются в поразительные узоры, которые вряд ли возникли бы случайно», — делится Касвелл Берри, нейробиолог из Университетского колледжа Лондона. Новое исследование продемонстрировало, каким образом трансформеры воспроизводят точно такие же изменения, как и те, что происходят в гиппокампе. Трансформер может определить, где он находится, опираясь на информацию о своих предыдущих передвижениях и положениях в пространстве, и делает это ровно так же, как и заложено в традиционных моделях нейронов решетки.

Как трансформеры имитируют работу мозга 1
Тим Беренс (слева) и Джеймс Уиттингтон указали на математическое сходство работы трансформеров и нашего мозга. (левое фото) Луиза Болд, Тонгюнь Шанг

В другой недавно опубликованной научной работе утверждается, что трансформеры могли бы расширить понимание и прочих функций мозга. В прошлом году Мартин Шримпф, специалист в области вычислительной нейробиологии Массачусетского технологического института, проанализировал 43 различные модели нейросетей, чтобы проверить, насколько точно они предсказали показатели нейронной активности человека, полученные с помощью функциональной МРТ и электрокортикографии. Мартин Шримпф обнаружил, что трансформерам удалось выявить почти все изменения, обнаруженные при томографии, что делает их самыми точными современными нейронными сетями.

Дэвид Ха и его коллега, специалист в сфере ИИ Юджин Танг, недавно разработали новую модель, которая способна отправлять большой объем данных через трансформер случайным, неупорядоченным образом, подражая тому, как тело человека передает сведения от органов чувств к мозгу. Трансформеру Ха и Танга, как и мозгу человека, удалось справиться с беспорядочным потоком информации. 

Юджин Танг объясняет, что нейросети запрограммированы принимать конкретные входные данные. Однако в реальной жизни наборы данных быстро меняются, и у большинства систем ИИ не получается к этому адаптироваться. Исследователи хотели поэкспериментировать с архитектурой программы, которая способна на быструю адаптацию. 

Несмотря на прорывные достижения трансформеров, Беренс воспринимает их лишь как новый шаг на пути к созданию точной модели мозга. «Я настроен скептически, — признается Беренс. — Не верю, что трансформеры станут похожи по принципу работы на человеческий язык, хотя на данный момент они строят модели предложений лучше всех прочих нейросетей». 

Касвелл Берри подытоживает: «Могут ли трансформеры точно спрогнозировать, где я нахожусь в данный момент и что увижу в следующий? Пока еще не понятно».

Шримпф тоже отмечает, что функциональность даже лучших трансформеров ограничена. Например, они могут хорошо работать со словами и короткими фразами, но не с более крупными лингвистическими задачами вроде рассказа историй. 

Исследователь добавляет: «По моим ощущениям, этот тип архитектуры нейронных сетей действительно поможет нам приблизиться к пониманию строения мозга, и дальнейшее обучение трансформеров сделает их работу еще более точной. Мы двигаемся в верном направлении, но это чрезвычайно сложная область знаний». 

По материалам Quanta Magazine
Автор: Стивен Орнес

Переводила: Екатерина Лобзева
Редактировала: Елизавета Яковлева