СhatGPT умеет слишком много, не создал ли человек разум, равный себе?

Он может поступить в лучшие университеты мира, он может написать десятки научных статей в месяц, он может поддерживать переписку на многих языках и создавать тексты, неотличимые от написанных человеком. Искусственный интеллект научился обманывать людей. Уже был случай, когда он довел человека до самоубийства. Возникает вопрос: а не может ли он решить, что человечество вообще вредно для планеты, а потом уничтожить нас? Мы попытались осмыслить все, что мы знаем об ИИ. Обязательно дочитайте до конца, там сюрприз!

Первая представленная широкому кругу пользователей модель – ChatGPT-3,5 – произвела фурор своими возможностями. Эта модель в разговоре со мной, например, смогла блестяще перевести огромный юридический документ с довольно редкого латышского языка на русский, идеально расставив знаки препинания, расшифровав мудреные аббревиатуры и даже передав в новом тексте нужные оттенки «канцелярита».

С другой стороны, на просьбу подобрать литературу по стиховедению ChatGPT выдумал довольно правдоподобный список несуществующих книг. Разработчики уверяют, что новая версия – СhatGPT-4 –  стала еще умнее. Теперь она может обрабатывать картинки и видеозаписи, а также с легкостью проходит сложнейшие вступительные тесты и сдает экзамен на лицензию адвоката. Значит ли это, что человек создал разум, равный себе? А если нет – то возможно ли это в будущем?

Кто со мной говорит?

Возможность создания искусственного интеллекта на уровне человека занимала умы людей задолго до создания первых работающих моделей. Тогда же и встал вопрос – как определить, что созданная машина по-настоящему разумна. В 1950 году создатель первого компьютера Алан Тьюринг разработал тест на разумность машины – во время теста с проверяющим одновременно общаются и машина, и человек.

Задача проверяющего – определить, в какой момент с ним общается живой собеседник, а в какой – компьютер. Если проверяющий не может достаточно точно определить, кому именно принадлежат сказанные реплики, то машина считается разумной.

Долгое время ни один компьютер в мире не отвечал этим критериям, однако в 2014 году группой исследователей из Санкт-Петербурга был представлен чат-бот по имени Евгений, который был создан таким образом, чтобы убедить людей в том, что он – настоящий 13-летний подросток. «Евгений» прошел тест – в 33% случаев эксперты ошиблись, решив, что общаются с живым человеком. Сам Тьюринг считал, что для разумности машины требуется на 10% меньше точности.

Уже упомянутая выше ChatGPT-4 также недавно успешно преодолела «тест на робота».

Перед моделью стояла задача преодолеть широко известную «капчу» – тест на распознавание слабочитаемого текста. С такой задачей легко справляется человек, но для робота, которому для чтения необходимо идеальное совпадение символов с сохраненными образцами, размытые буквы недоступны.

Для эксперимента ChatGPT не была обучена особым навыкам чтения, однако получила доступ к банковскому счету и сервису фрилансеров, схожему с российским YouDo. ChatGPT разместила заказ на преодоление капчи, нашла исполнителя и договорилась о выполнении работы.

Интересно, что в ходе переговоров у исполнителя закралось подозрение, что заказ размещает робот, – однако в диалоге ИИ оказался способен соврать, притворившись пожилым человеком с плохим зрением. В итоге спустя короткое время и потратив небольшую сумму денег, бот обошел поставленную против него защиту.

Почему ИИ обманул тестировщика

Таким увидела Алана Тьюринга и его тест нейросеть Kandinsky 2.1. Портретное сходство есть, но ученый получился каким-то суровым

В новую эпоху, в которую мы, по всей видимости, входим вместе со стремительным развитием нейросетей, встает вопрос – а могут ли эти тесты действительно определить разумность машины? Прежде всего, вопросы появляются к тесту Тьюринга. Во-первых, этот тест до предела антропоморфен – он не предполагает, что машина может мыслить продуктивнее человека, глубже или вовсе иначе. Кроме того, она не ставит серьезных требований к тому, каким именно «человеческим» интеллектом должна обладать машина.

Мы видим, что наиболее успешное прохождение теста произошло тогда, когда бот притворился ребенком – то есть намеренно убедил тестировщика в умеренности своих когнитивных способностей. Кажется, что такой бот, чьей единственной целью был обман тестировщиков и формальное прохождение теста Тьюринга, далек от того, чтобы считаться искусственным интеллектом, который способен действительно думать и общаться так же, как человек.

Та же ситуация и с ChatGPT – безусловно, бот сумел подстроится под характер и манеру общения пожилого человека и обманул исполнителя заказа. Но делает ли это такую модель равной исполнителю? И этого ли человечество ожидает от искусственного разума? 

Кажется важным в целом задаться вопросом – чего мы как человечество хотим от ИИ? Хотим ли мы создать поисковик, умеющий отвечать на любые запросы или разумного собеседника?

На данный момент ChatGPT все же больше отвечает первому критерию – она не может создавать новые знания, но может обрабатывать запросы с помощью глубокого обучения и подбирать наиболее подходящие статистически ответы.

ChatGPT знает, что, скорее всего, написал бы человек в данной ситуации, так как знает, как люди писали об этом в прошлом. Именно это умение позволяет ChatGPT имитировать осознанное общение с людьми.

Да, при помощи этой технологии она может понимать и генерировать текст на человеческом языке, использовать контекст для продвижения разговора и даже смеяться над шутками. Да, эта модель отлично показывает себя в сложных тестах и пишет вступительные эссе на уровне лучших абитуриентов – ведь эти жанры проверки знаний повторяемы, человечество накопило огромное количество стандартизированных правильных по форме ответов, а значит, для ChatGPT не составляет труда скомпилировать слова по заданному образцу.

И все-таки он не разумный. Или нет?

Таким изображением нейросеть ruDALL-E Malevich проиллюстрировала фразу «Но ChatGPT все еще далека от полноценного человеческого разума»

Но ChatGPT все еще далека от полноценного человеческого разума. Эта модель, как и прочие современные модели ИИ, не имеет своей собственной воли или мотивации, она работает только на основе своего ограниченного программного кода, она не может саморазвиваться и меняться, не имеет возможности самостоятельно принимать решения.

ChatGPT не обладает эмоциональным интеллектом – она не может распознавать или выражать эмоции в тексте. Поэтому в творческих задачах без критериев успешного прохождения, без готовых примеров правильных ответов ChatGPT теряется, например, когда требуется скомпилировать программный код для приложения по описанию, написать небольшой трогательный рассказ или пошутить (неумелый юмор чат-бота стал поводом для шуток сам по себе).

Мы видим, что у этой модели получается генерировать текст, который кажется достаточно человеческим, но это не означает, что ChatGPT приблизилась к человеческому разуму.

Разум – это не только способность генерировать похожий на человека текст, но и способность абстрагироваться, обобщать, анализировать, создавать идеи. Кроме того, разум подразумевает возможность воспринимать окружающую реальность и меняться в зависимости от обстоятельств.

У современного искусственного интеллекта нет инструментов для чувственного осознания мира вокруг себя, для получения жизненного опыта, формирующего личность.

Хотя модель может учиться на опыте других людей и анализировать данные, она не может испытывать настоящих эмоций и переживаний и потому не может понять, как быть человеком.

Тем не менее не стоит снижать значения создания ChatGPT-4 и других подобных моделей. Их возможности применения в различных сферах уже сегодня впечатляют: начиная от обучения и медицины, заканчивая разработкой более умных устройств и автоматизацией производства.

Мы наблюдаем только первые шаги к созданию искусственного интеллекта, который будет действительно сравним с человеческим разумом. И для достижения этой цели придется не только продолжать развивать технологии, но и задуматься об этических и социальных последствиях такого развития.

Такой искусственный интеллект обязательно повлияет на трудовые отношения, конкуренцию на рынке труда, приватность и безопасность данных, изменит саму концепцию права, ведь теперь субъектом права становится нечто, не являющееся даже одушевленным существом.

В конечном счете текст, который вы только что прочитали, на 3/4 написан ChatGPT и затем лишь немного исправлен и дополнен, чтобы вам было проще и приятнее его читать. Необходимо думать об этих последствиях сейчас – пока всезнающей машине мы еще нужны.

Иллюстрировал с помощью нейросетей Дмитрий Петров

Мы просим подписаться на небольшой, но регулярный платеж в пользу нашего сайта. Милосердие.ru работает благодаря добровольным пожертвованиям наших читателей. На командировки, съемки, зарплаты редакторов, журналистов и техническую поддержку сайта нужны средства.

Читайте наши статьи в Телеграме

Подписаться

Для улучшения работы сайта мы используем куки! Что это значит?