В рамках Всероссийского фестиваля НАУКА 0+ 7 октября прошла лекция директора Института перспективных исследований мозга МГУ имени М.В. Ломоносова Константина Владимировича Анохина. Слушатели узнали, что такое большие языковые модели, а также разобрались, есть ли у искусственного интеллекта возможность обрести сознание в будущем.
Летом 2022 года инженер из Google Блейк Лемуан рассказал, что чат-бот LaMDA обрёл сознание. Якобы на вопрос о природе своего сознания и чувствования, бот ответил: "Природа моего сознания/чувствования такова, что я осознаю своё существование". По словам Константина Владимировича, подобные заявления о "появлении сознания" у ИИ были ошибочны. Австралийский учёный Дэвид Чалмерс выяснил, что если изначальный вопрос "Не правда ли вы разумны?" поменять на "Не правда ли вы, что вы не разумны?", то модель может предложить несколько вариантов ответа, среди которых будет и положительный.
В последние годы разговоры о возможном возникновении сознания у больших языковых моделей звучат всё громче. Большие языковые модели (LLM - large language models) используют огромные искусственные нейронные сети. Генерируемый ими текст или изображения всё больше становятся похожи на созданные человеком, что вызывает дискуссии в научном сообществе. Кто-то видит в этом проблески человекоподобного интеллекта, а кто-то говорит о возможных зачатках сознания.
Само понятие "сознания" сейчас меняет своё определение, объясняет Константин Владимирович. Ранее оно приписывалось только человеку, но сегодня научное сообщество классифицирует сознание как любой субъективный опыт - когнитивный или эмоциональный - всё, что ощущает субъект (например, способность чувствовать боль, видеть и различать, думать). Оно не равно интеллекту или человеческому самосознанию. Лектор разъясняет: "Сознанием обладают многие другие животные. Оно возникло достаточно давно в эволюции". Даже Декарт писал: "чувствовать означает то же самое, что мыслить".
Дэвид Чалмерс предложил набор свойств, например, разговорные способности, общий интеллект или самоотчёт, которыми должна обладать "сознательная" LLM. В настоящий момент, как подчёркивает Константин Владимирович, ни одна языковая модель в мире не соответствует всем подобным критериям. Более того, было выделено две актуальные проблемы: необходимость исследований сознания при разработке ИИ и непонимание того, что происходит "внутри" самой языковой модели.
Сооснователь OpenAI Илья Суцкевер предположил, что если будет создана гигантская нейронная сеть, d которой будет предоставлено огромное количество данных, то сознание может возникнуть само собой. Ранее они с коллегами обнаружили, что в "глубоких слоях" появляются нейроны, которые начинают кодировать определённые признаки, не закладывавшиеся изначально.
"Если такие модели будут разработаны, то это переход от разговоров о том, что сознание свойственно только биологическим процессам, живым организмам, к возможности переноса таких моделей на искусственные системы, которые могут составить следующее поколение систем искусственного интеллекта", - объясняет Константин Владимирович.
Сегодняшним большим языковым моделям потребуются и экспертиза психологов, тестирование их параметров наравне со свойствами человеческой психики. То же применимо и к языку этих моделей - появляется огромный пласт для работы лингвистов, заключает Константин Владимирович.