«Можно ли убить его — выключить?»: Константин Анохин о сознательности искусственного интеллекта


«Можно ли убить его — выключить?»: Константин Анохин о сознательности искусственного интеллекта

7 октября в рамках фестиваля «НАУКА 0+» Константин Владимирович Анохин прочитал лекцию, посвященную вопросу существования сознания у больших языковых моделей. Директор института перспективных исследований мозга МГУ объяснил, что сегодня искусственный интеллект не наделен сознанием, и рассказал о существующих в научной среде мнениях по вопросу возникновения сознания у больших языковых моделей в будущем.

Открывая лекцию, Константин Владимирович Анохин напомнил об истории проблемы. В 2022 году Блейк Лемуан заявил, что у чат-бота Google LaMDA есть сознание, основываясь на ответе нейросети на его вопрос «Какова природа вашего сознания?». Лектор отметил, что в современном научном сообществе существуют диаметрально противоположные взгляды на сознательность языковых моделей. По мнению Константина Владимировича, мы должны уже сегодня задуматься, какие моральные обязательства возникнут у людей в случае появления сознания у искусственного интеллекта. «Можно ли убить его — выключить?» — задался вопросом академик. И отметил, что нам придется понять, вправе ли мы вообще создавать такие сознательные субъекты. 

Директор института перспективных исследований мозга МГУ также отметил, что в основе вопроса сознательности нейросети лежит определение самого понятия сознательности. При этом, по мнению Константина Владимировича Анохина, важно учитывать, что в российской научной традиции сознанием ученые считают любой субъективный опыт, а в зарубежной — феноменальное, чувственное сознание. Лектор рассказал, что наибольшей популярностью пользуется определение Томаса Нагеля из книги «Каково быть летучей мышью»: «ощущение собственного бытия в самых разных ипостасях». Анохин заявил, что если руководствоваться таким подходом, то сегодняшние большие языковые модели сознательностью не наделены.

Для определения этого признака у того или иного субъекта, по словам Константина Владимировича Анохина, используются четыре основных критерия: самоотчет, внешние проявления сознательности, разговорные способности (тест Тьюринга), общий интеллект. Сознание и интеллект при этом являются различными понятиями, отметил академик: «Если нечто ведет себя как сознательный агент — это может отражать интеллект, но вовсе не обязательно будет говорить о сознательности». Прохождение теста Тьюринга большими языковыми моделями пока происходит на грани, рассказал Анохин. 

Лектор поделился возможными перспективами развития сознания у больших языковых моделей. «Если мы создадим очень большие нейросети, и дадим им невероятное количество данных, то ничего другого и не нужно — сознание возникнет само собой!» — высказался Константин Владимирович Анохин. Он также поделился собственными исследованиями Open AI: «Мы еще несколько лет назад начали интересоваться проблемой и пытаться войти в нее с точки зрения прозрачного искусственного интеллекта. Методы исследования похожи на техники ученых, изучающих нейроны в глубинных слоях мозга. 

Чтобы «заглянуть под череп искусственного интеллекта и естественного интеллекта», при поддержке фонда «Интеллект» была создана опорная лаборатория МГУ. В ней ученые отслеживают принципы появления «умных нейронов» в биологических нейронных сетях, чтобы использовать эти знания для обнаружения аналогичных структур в антропогенных, механических сетях. Однако, отвечая на вопрос слушательницы об «умирании» творческих профессий, Константин Владимирович Анохин заявил, что человеческое творчество беспредельно и потому неподражаемо. «Возможности искусственного интеллекта ограничены», — отметил лектор в завершение общения с аудиторией.


Автор текста: Анастасия Борисова 

Автор фото: Константин Ерохин