Сэм Альтман подчеркивает необходимость защиты от негативных последствий технологий, поскольку компания выпускает новую версию GPT-4. «Мы немного напуганы», — заявил генеральный директор OpenAI предупреждая о рисках новейшего искусственного интеллекта.
Сэм Альтман, генеральный директор OpenAI, компании, разработавшей спорное приложение для искусственного интеллекта ChatGPT, ориентированное на потребителя, предупредил, что технология сопряжена с реальными опасностями, поскольку она меняет общество.
37-летний Альтман подчеркнул, что регулирующие органы и общество должны быть вовлечены в технологию, чтобы защититься от потенциально негативных последствий для человечества.
Мы должны быть осторожны», — сказал Альтман ABC News в четверг, добавив: «Я думаю, люди должны быть счастливы, что мы этого немного боимся.
Я особенно обеспокоен тем, что эти алгоритмы могут быть использованы для крупномасштабной дезинформации”, — сказал Альтман. “Теперь, когда они совершенствуются в написании компьютерного кода, [их] можно использовать для наступательных кибератак”.
Но, несмотря на опасности, по его словам, это также может быть «величайшей технологией, которую когда-либо разрабатывало человечество».
Предупреждение поступило, когда OpenAI выпустила последнюю версию своей языковой модели ИИ, GPT-4, менее чем через четыре месяца после выпуска оригинальной версии и стала самым быстрорастущим потребительским приложением в истории.
В интервью инженер по искусственному интеллекту сказал, что, хотя новая версия “не идеальна”, она набрала 90% баллов в США на экзаменах в адвокатуру и почти идеальный результат на тесте SAT по математике в средней школе. Он также может писать компьютерный код на большинстве языков программирования, сказал он.
Опасения по поводу искусственного интеллекта, ориентированного на потребителя, и искусственного интеллекта в целом сосредоточены на замене людей машинами. Но Альтман отметил, что ИИ работает только под руководством или при участии людей.
«Он ждет, пока кто-нибудь внесет свой вклад», — сказал он. “Это инструмент, который в значительной степени находится под контролем человека”. Но он сказал, что у него есть опасения по поводу того, какие люди контролируют ввод.
Будут и другие люди, которые не будут устанавливать некоторые ограничения безопасности, которые мы устанавливаем», — добавил он. “Я думаю, у общества ограниченное количество времени, чтобы понять, как на это реагировать, как это регулировать, как с этим справиться”.
Многие пользователи ChatGPT столкнулись с защитными реакциями, граничащими с паранойей. В тестах, предложенных для выпуска телевизионных новостей, GPT-4 выполнил тест, в котором он вызывал в воображении рецепты из содержимого холодильника.
Генеральный директор Tesla Илон Маск, один из первых инвесторов в OpenAI, когда он еще был некоммерческой компанией, неоднократно предупреждал, что ИИ или AGI — искусственный общий интеллект – опаснее ядерного оружия.
Маск выразил обеспокоенность тем, что Microsoft, которая размещает ChatGPT в своей поисковой системе Bing, распустила свое подразделение по надзору за этикой.
Нормативный надзор за ИИ отсутствует, что является серьезной проблемой. Я уже более десяти лет призываю к регулированию безопасности ИИ! » — написал Маск в декабре.
На этой неделе Маск «беспокоился» и в принадлежащем ему Твиттере: “Что нам, людям, останется делать?”
В четверг Альтман признал, что в последней версии используются дедуктивные рассуждения, а не запоминание, процесс, который может привести к странным реакциям.
«Больше всего я стараюсь предостеречь людей от того, что мы называем»проблемой галлюцинаций», — сказал Альтман. “Модель будет уверенно излагать вещи, как если бы они были полностью выдуманными фактами.
«Правильный способ думать о моделях, которые мы создаем, — это механизм рассуждений, а не база данных фактов», — добавил он. Хотя технология может выступать в качестве базы данных фактов, он сказал: “На самом деле это не то, что в них особенного – мы хотим, чтобы они делали что-то более близкое к способности рассуждать, а не запоминать”.