Чат-бот ChatGPT проверили с помощью настоящих ученых-ракетчиков
19:45 04/02/2023
Недавно выпущенный чат-бот ChatGPT от OpenAI стал сенсацией в сети, продемонстрировав потенциал и силу искусственного интеллекта.
Но только не просите его стать ученым-ракетчиком. ChatGPT проверили с помощью настоящих ученых-ракетчиков, чтобы оценить применение ИИ. Увы, ему не удалось точно воспроизвести даже самые элементарные уравнения ракетной техники. Его письменные описания некоторых уравнений также содержали ошибки.
Независимые исследователи говорят, что эти неудачи, особенно на фоне успешного использования компьютеров в ракетной технике в течение полувека, выявляют фундаментальную проблему, которая может ограничить возможности новых программ ИИ: они просто не могут разобраться в фактах.
«Есть люди, у которых есть фантазия, что мы решим проблему истинности этих систем, просто предоставив им больше данных», — говорит Гэри Маркус, ученый в области искусственного интеллекта. Это был забавный эксперимент, но, несомненно, искусственный интеллект продолжит внедряться в конструкцию ракет и, вероятно, в программное обеспечение, используемое для управления ракета-носителями в полете.
Маркус говорит: «Они упускают что-то более фундаментальное».
С 1960-х годов компьютеры были важными инструментами для космических путешествий. Огромные ракеты «Сатурн-5», которые доставляли астронавтов на Луну, использовали автоматическую последовательность запуска для выведения космического корабля на орбиту. Сегодня ракеты по-прежнему управляются в основном компьютерами, которые могут контролировать их сложные системы и вносить коррективы гораздо быстрее, чем их человеческий груз.«Мы не можем управлять ракетами без компьютеров», — говорит Пауло Лозано , ученый-ракетчик из Массачусетского технологического института. Компьютеры также играют центральную роль в разработке и тестировании новых ракет, позволяя строить их быстрее, дешевле и качественнее.
«Компьютеры — это ключ», — говорит он. Последний раунд программ искусственного интеллекта впечатляет сам по себе.
После выпуска в ноябре ChatGPT был протестирован пользователями практически со всех уголков Интернета. Врач использовал его для составления письма страховой компании . Медиакомпания Buzzfeed недавно объявила , что будет использовать программу для создания персонализированных викторин . Колледжи и университеты опасаются безудержного мошенничества с использованием чат-ботов .
Казалось возможным, что ИИ можно использовать в качестве инструмента для выполнения некоторых базовых задач ракетостроения.
Но пока что ChatGPT оказался неспособным воспроизвести даже самые простые идеи ракетостроения. Вдобавок к путанице в уравнении ракеты, он испортил такие понятия, как отношение тяги к весу, основной показатель способности ракеты летать.
«О да, это провал», — сказал Лозано, потратив несколько минут на просмотр полудюжины результатов, связанных с ракетной техникой.
Программы создания изображений, такие как DALL•E2 от OpenAI, также не оправдали ожиданий. Когда их попросили предоставить чертеж ракетного двигателя, они представили сложные схемы, отдаленно напоминающие ракетные двигатели, но лишенные таких элементов, как отверстия для выхода горячих газов. Другие графические программы, в том числе от Midjourney и Stable Diffusion , создавали аналогичные загадочные конструкции двигателей с трубами, ведущими в никуда, и формами, которые никогда не летали.
Странные результаты показывают, что программирование, лежащее в основе нового ИИ, радикально отличается от тех программ, которые десятилетиями использовались для поддержки ракетной техники, по словам Саши Лучони , научного сотрудника компании ИИ Hugging Face . «На самом деле компьютер работает совсем по-другому, — говорит она.
Традиционный компьютер, используемый для проектирования или управления ракетами, поставляется со всеми необходимыми уравнениями. Программисты явно сообщают ему, как реагировать на различные ситуации, и тщательно проверяют компьютерные программы, чтобы убедиться, что они ведут себя именно так, как ожидалось. Напротив, эти новые системы разрабатывают свои собственные правила. Они изучают базу данных, заполненную миллионами или, возможно, миллиардами страниц текста или изображений, и извлекают закономерности. Затем они превращают эти шаблоны в правила и используют эти правила для создания новых надписей или изображений, которые, по их мнению, хочет видеть зритель.
Результаты могут дать впечатляющее приближение к человеческому творчеству.
ChatGPT сгенерировал стихи и песни о таких вещах, как, например , как достать бутерброд с арахисовым маслом из видеомагнитофона . Лучони считает, что подобный ИИ когда-нибудь может помочь художникам придумывать новые идеи.«Они генерируют, галлюцинируют, создают новые сочетания слов на основе того, что узнали», — говорит Лучони.
Но ограничения становятся очевидными, когда программу просят использовать ее таланты для создания нового материала, связанного с фактической информацией, — например, когда ее просят написать уравнение ракеты.
Он имитирует набор учебников по физике, с которыми знакомился. Он не может сказать, является ли созданный им смешанный текст фактически правильным. И это означает, что все, что он генерирует, может содержать ошибку.
Кроме того, программа может генерировать противоречивые результаты, если ее несколько раз просят предоставить одну и ту же информацию. Если спросить, например, столицу Франции, Лучони говорит, что статистически программа с большой вероятностью назовет Париж, основываясь на ее самообучении на основе миллионов текстов. Но поскольку он пытается просто предсказать следующее слово в обмене со своим человеческим аналогом, время от времени он может выбирать другой город. (Это может объяснить, почему ChatGPT создал несколько версий уравнения ракеты, одни лучше других.)
Лучони отмечает, что эти недостатки никого не должны удивлять. По своей сути ChatGPT был специально обучен писать, а не заниматься математикой. Программа была настроена так, чтобы реагировать на отзывы людей, поэтому она особенно хорошо справляется с подсказками людей и взаимодействует с ними.
«Он ошибается, потому что на самом деле он не предназначен для того, чтобы делать все правильно», — говорит Эмили М. Бендер , профессор лингвистики Вашингтонского университета, изучающая системы ИИ. «Он создан, чтобы говорить вещи, которые звучат правдоподобно». Бендер считает, что языковое мастерство ChatGPT в сочетании с игнорированием фактов делает его потенциально опасным. Например, некоторые предлагали использовать ChatGPT для создания юридических документов и даже средств защиты от менее серьезных преступлений . Но программа ИИ «не знает законов, она не знает, какова ваша текущая ситуация», — предупреждает Бендер.
«Он может собрать обрывки из своих обучающих данных, чтобы сделать что-то похожее на юридический контракт, но это не то, что вам нужно». Точно так же использование ChatGPT для медицинских или психиатрических услуг может быть потенциально катастрофическим, учитывая его непонимание.
Остается неясным, что нужно сделать, чтобы ChatGPT отделил факты от вымысла. Попытка Meta, материнской компании Facebook, использовать систему искусственного интеллекта для научных статей была прекращена в течение нескольких дней , отчасти потому, что она генерировала поддельные ссылки. Поскольку эти системы предназначены для генерации текста, звучащего по-человечески, посредством статистического анализа огромных баз данных информации, Бендер задается вопросом, действительно ли существует простой способ заставить его выбирать только «правильную» информацию.
«Я не думаю, что это может быть безошибочно», — говорит она. По словам Лучони и Бендера, если улучшения можно будет внести, они будут получены за счет использования различных программ обучения для обучения системам ИИ.
Хотя, возможно, можно настроить обучение, чтобы улучшить результаты, неясно, что именно требуется, потому что эти программы самообучения очень сложны.
Дорогие друзья! Желаете всегда быть в курсе последних событий во Вселенной? Подпишитесь на рассылку оповещений о новых статьях, нажав на кнопку с колокольчиком в правом нижнем углу экрана ➤ ➤ ➤