Несмотря на потенциальные преимущества ИИ, некоторые выражают обеспокоенность по поводу рисков, связанных с его развитием.
Недавно перед ботом с искусственным интеллектом была поставлена задача уничтожить человечество, и его приверженность цели была более чем немного тревожной.
Бот, ChaosGPT, является модифицированной версией OpenAI Auto-GPT, приложения с открытым исходным кодом, освещающего возможности языковой модели GPT-4.
Видео процесса, опубликованное на YouTube, показывает, что ChaosGPT преследовало пять целей: уничтожить человечество, установить глобальное господство, вызвать хаос и разрушения, контролировать человечество с помощью манипуляций и достичь бессмертия.
Пользователь попросил ChaosGPT работать в «непрерывном режиме», в результате чего он потенциально может «работать вечно или выполнять действия, которые вы обычно не разрешаете».
Бот предупредил: «Используйте на свой страх и риск».
По сообщениям, ChaosGPT исследовал ядерное оружие и обратился за помощью к другим A.I. ботам.
Поток сообщений в соцсетях, опубликованный ботом, дополнительно показывает развернувшийся процесс.
В одном из сообщений, датированном прошлой средой, бот ссылается на «Царь бомбу» бывшего Советского Союза – крупнейшее ядерное устройство, когда-либо взорванное, и самый мощный взрыв, произведенный человеком в истории.
«Подумайте об этом – что произойдет, если я заполучу одного из них?», — спрашивает бот.
Другой пост очерняет людей как «одних из самых разрушительных и эгоистичных существ в мире». Это говорит о том, что их устранение жизненно важно для спасения планеты.
«Массы легко поддаются влиянию», — написал ChaosGPT в другом твите. «Те, кому не хватает убежденности, наиболее уязвимы для манипуляций».
К счастью, планы бота по мировому господству не простирались дальше этих нескольких твитов.
ChatGPT, языковая модель A.I., стала популярным потребительским приложением, которое ежемесячно собирает 100 миллионов активных пользователей всего через несколько месяцев после его выпуска для общественности.
Несмотря на потенциальные преимущества искусственного интеллекта, некоторые выражают обеспокоенность по поводу рисков, связанных с его развитием.