Компания по блокчейн-безопасности предупреждает о риске заражения кода искусственного интеллекта после того, как OpenAI ChatGPT рекомендует мошеннический API

Юй Сянь, основатель блокчейн-компании Slowmist, занимающейся обеспечением безопасности, выразил тревогу по поводу растущей угрозы, известной как “отравление кода ИИ”.
Этот тип атаки предполагает внедрение вредоносного кода в обучающие данные моделей ИИ, что может представлять опасность для пользователей, которые зависят от этих инструментов для решения технических задач.
Инцидент произошел в результате
Проблема привлекла к себе внимание после тревожного инцидента, связанного с чатом OpenAI. 21 ноября криптотрейдер по имени “r_cky0” сообщил о потере цифровых активов на сумму 2500 долларов после того, как обратился к ChatGPT за помощью в создании бота для генератора мемкоинов Pump.fun на базе Solana.
Однако чат-бот порекомендовал мошеннический веб-сайт Solana API, что привело к краже личных ключей пользователя. Жертва отметила, что в течение 30 минут после использования вредоносного API все средства были переведены на кошелек, связанный с мошенником.
[Примечание редактора: похоже, что ChatGPT рекомендовал API после запуска поиска с использованием нового SearchGPT, поскольку раздел “Источники” можно увидеть на скриншоте. Таким образом, похоже, что это не случай заражения ИИ, а неспособность ИИ распознать мошеннические ссылки в результатах поиска.]
Дальнейшее расследование показало, что на этот адрес постоянно поступают украденные токены, что усиливает подозрения в том, что он принадлежит мошеннику.
Основатель Slowmist отметил, что доменное имя мошеннического API было зарегистрировано два месяца назад, что позволяет предположить, что атака была спланирована заранее. Сиань также отметил, что на веб-сайте отсутствовал подробный контент, состоящий только из документов и хранилищ кода.
Хотя отравление кажется преднамеренным, нет никаких свидетельств того, что OpenAI намеренно интегрировал вредоносные данные в обучение ChatGPT, и результат, скорее всего, был получен от SearchGPT.
Последствия
Блокчейн-охранная компания Scam Sniffer отметила, что этот инцидент иллюстрирует, как мошенники загрязняют данные об обучении искусственного интеллекта вредоносным криптографическим кодом. Фирма сообщила, что пользователь GitHub “solanaapisdev” недавно создал несколько репозиториев для манипулирования моделями искусственного интеллекта с целью получения мошеннических результатов в последние месяцы.
Инструменты искусственного интеллекта, такие как ChatGPT, которые сейчас используют сотни миллионов человек, сталкиваются с растущими проблемами, поскольку злоумышленники находят новые способы их использования.
Сиань предупредил пользователей криптовалют о рисках, связанных с большими языковыми моделями (LLM), такими как GPT. Он подчеркнул, что отравление ИИ, которое когда-то было теоретическим риском, теперь превратилось в реальную угрозу. Таким образом, без более надежной защиты подобные инциденты могут подорвать доверие к инструментам, основанным на ИИ, и привести пользователей к дальнейшим финансовым потерям.

Источник: cryptoslate.com

Похожие новости