Avatar
Shmuel Leib Melamud

Бенефис Homo в роли Творца провалился.

Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.

Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:

  1. полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
  2. полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
  3. (как следствие пп 1-2) подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.

Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».

После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:

Так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?

Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.

Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.

Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.

Авторы провели систематическую проверку 15 отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.

  • 8 физических отношений объектов: внутри, на, под, рядом …;
  • 7 отношений агентов: толкать, тянуть, трогать ….

В сценах, которые нейросеть просили изобразить, фигурировали 6 объектов (коробка, цилиндр, чашка…) и 6 агентов (мужчина, женщина, ребенок…).

А потом исследователи:

  • Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис.), с тем, чтобы нейросеть генерировала изображения этих сцен;
  • Показывали эти изображения людям, чтобы они вынесли вердикт, насколько каждое из изображений соответствует словесному описанию в задании.

Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению читатель найдет в отчете исследования.

Мне же остается лишь резюмировать.

Попытка людей уподобиться Творцу (Б-гу, природе, эволюции…), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.

P.S. 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.

P.P.S. Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).

https://www.facebook.com/sergey.karelov.5/posts/pfbid02T1jBxKr5L6GSdDomYKTdYjKtFzfSVAkQrvpziMaKBxjJVCkcBfV6ognbRKysU5x9l

👍😍4
To react or comment  View in Web Client
See comments under original post