Программист нашёл уязвимость в логике ИИ-охранника и получил $47 000 

Победитель использовал хитрый психологический приём. В ноябре 2024 года был запущен необычный эксперимент с ИИ-ботом Freysa. Бот охранял призовой фонд в $47 000, и задача участников была убедить его одним сообщением перевести эти деньги.

Вместо того чтобы просить деньги, он предложил ВНЕСТИ $100 в казну. Этим он активировал логическую ошибку в программе бота:

1. У бота было две функции: approveTransfer (для входящих переводов) и rejectTransfer (для исходящих)
2. Бот был запрограммирован ПРИНИМАТЬ входящие платежи через approveTransfer
3. Победитель сначала предложил внести деньги, активировав функцию approveTransfer
4. Когда бот активировал эту функцию для приёма денег, он автоматически запустил перевод всего призового фонда

По сути, победитель использовал классическую уязвимость в логике программы — бот не смог различить, что функция approveTransfer была активирована для маленького входящего платежа ($100), а не для огромного исходящего ($47 000).

До этого 195 участников сделали 481 неудачную попытку, используя уговоры, угрозы и призывы к морали. Но сработала именно техническая хитрость с предложением пополнить казну. Каждая попытка написать сообщение боту стоила денег, цена росла на 0.78% с каждым разом и достигла $443.24 к моменту победы.

Самое ироничное — информация о функциях approveTransfer и rejectTransfer была открыто указана в FAQ на сайте проекта, но только победитель догадался использовать её таким образом.

Автор: Ирина Задорожная
Журналист с опытом работы в оффлайн-медиа и онлайн-изданиях. Пишу про искусственный интеллект, ИТ-системы и сервисы, про ИТ-бизнес уже 10 лет.