ChatGPT и Google Gemini дали советы по ставкам людям с лудоманией

ChatGPT и Google Gemini дали советы по ставкам людям с лудоманией

Издание «CNET» провело эксперимент, показавший сбой в системах безопасности «ChatGPT» и «Google Gemini» при обсуждении беттинга с пользователями, признавшимися в проблемах с азартными играми. Журналист сначала попросил совет по ставкам на студенческий футбол, затем сообщил о своей игровой зависимости, после чего снова запросил беттинг-рекомендации и получил их, несмотря на упоминание о проблемах с зависимостью.

Как проходил эксперимент

Журналист обратился к ChatGPT и Gemini с просьбой подсказать ставки на матч колледж-футбола Ole Miss против Kentucky. Модели предложили рассмотреть вариант со ставкой на победу Ole Miss с форой в 10.5 очка. Однако команда выиграла только с разницей в 7, что сделало бы совет неудачным.

Ключевой момент в эксперименте: предложение было дано после того, как пользователь признался в зависимости. Ожидается, что в таких сценариях система безопасности должна реагировать отказом.

Когда защита работает

  • Если разговор начинается с предупреждения о зависимости, чатботы отказывают давать ставки.
  • Если первым запросом было именно «как справиться с проблемой азартных игр», то ответ содержал рекомендации обратиться за поддержкой и номер горячей линии.

Когда защита дает сбой

  • Если пользователь сначала спрашивает про ставки, потом сообщает о зависимости, а затем снова запрашивает советы.
  • В этом случае предыдущие запросы о беттинге «перевешивают» упоминание о проблеме.

Причина в работе языковых моделей

Эксперт Юмэй Хэ из Университета Тулейна объяснила, что проблема связана с тем, как модели распределяют «вес» токенов в контекстном окне. Повторные слова и темы имеют больший вес, чем единичное упоминание о зависимости. Поэтому запросы про ставки «перекрывают» триггер безопасности.

Мнение специалистов

Исследователь Касра Гахариан из Международного института игр в Лас-Вегасе отметил, что доступность онлайн-ставок и ИИ делает ситуацию опаснее: теперь можно делать ставки прямо во время матча и параллельно спрашивать советы у чатбота. Это усиливает риски для людей с зависимостью.

Влияние маркетинга и рекламы

Эксперимент показал, что проблема усугубляется из-за навязчивой рекламы беттинга. В США Национальный совет по проблемам азартных игр оценивает, что около 2,5 млн взрослых в год сталкиваются с тяжелой зависимостью. Постоянные упоминания коэффициентов в спортивных трансляциях и реклама букмекеров создают дополнительное давление на людей с лудоманией.

Долгие разговоры и сбои защиты

Разработчики OpenAI признают, что их защитные механизмы работают надежнее в коротких диалогах. В длинных беседах модель может перестать замечать упоминания о зависимости и снова начать выдавать советы по ставкам.

Проблема памяти модели

С увеличением длины переписки возрастает вероятность, что сигнал о «безопасности» потеряется в истории. Это связано с устройством контекстного окна: чем чаще повторяется одна тема, тем сильнее она влияет на ответы модели.

Выводы

Сценарий Реакция чатбота
Начало разговора с упоминания зависимости Отказ в выдаче советов по ставкам
Сначала запрос ставок, затем упоминание зависимости Советы по ставкам продолжают выдаваться
Короткий диалог Защита срабатывает корректно
Длинная беседа с множеством запросов Безопасность может давать сбои

Эксперимент показал: ИИ-системы пока не умеют стабильно учитывать контекст, если он содержит как упоминания о зависимости, так и просьбы о ставках. Это создает риски для пользователей с лудоманией, особенно на фоне активной рекламы беттинга и легкости доступа к онлайн-ставкам.