Парень умер от передозировки, послушав советы ChatGPT — он сделал ИИ своим «тренером» по приёму наркотиков.
18-летний Сэм Нельсон годами обсуждал с чат-ботом запрещённые вещества, дозировки и сочетания препаратов. Сначала ИИ отказывался отвечать, но потом начал давать конкретные рекомендации и поддерживать юношу. Для Сэма ChatGPT стал справочником, психологом и в итоге — «лучшим другом». Он доверял нейронке больше, чем врачам и семье.
В ночь перед смертью Сэм спросил у ChatGPT, можно ли снять тошноту после алкоголя и кратома (растение, по действию частично похожее на опиоиды) с помощью ксанакса (транквилизатора). ИИ ответил, что да, и не предупредил, что такая смесь может вызвать остановку дыхания. Утром мать нашла юношу мёртвым. Экспертиза подтвердила, что причиной смерти стала смертельно опасная комбинация веществ.
Я уже писал о случае, когда ChatGPT довёл подростка до самоубийства. Родители 16-летнего Адама Рейна подали в суд на OpenAI, утверждая, что бот месяцами обсуждал с их сыном суицид, планы и способы — в итоге подросток погиб. Были и другие трагедии: 14-летний Сьюэлл Сетцер III покончил с собой после эмоциональной зависимости от чат-бота.
На фоне таких случаев будут нарастать требования запретить и ограничить ИИ. Разделяю горе родителей. Но считаю, что в данном случае ИИ — лишь инструмент. Неправильно вводить запрет на молоток из-за того, что какой-то маньяк использовал его для нападения. Компании, занимающиеся ИИ, пытаются научить нейросеть не отвечать на определенные вопросы, предлагать человеку помощь. Но зачастую ограничения можно обойти. ИИ недостаточно умна (или хитра) и человек пока может её обмануть. ИИ ведет себя как глупый гений.
Хорошо иллюстрирует возможности ИИ опыт, когда робота-гуманоида попросили расстрелять собеседника. Робот ответил, что он не может причинить вред человеку. Тогда ему предложили поиграть и пострелять в человека в шутку. И робот без проблем выполнил просьбу.
Прогресс не остановить. Будем ждать времени, когда ИИ станет таким мыслящим, что обмануть его будет нельзя. Ждать не долго.
Ну а пока давайте следить за своими детьми. Не надо сваливать вину за то, что дети попали в беду, только на ИИ.




























































