Введение
В последние дни внимание общественности было приковано к инциденту в Тумблер-Ридж, Канаде, после того как CEO OpenAI Сэм Альтман опубликовал открытое письмо с извинениями перед жителями города. В письме он выразил сожаление по поводу того, что его компания не уведомила правоохранительные органы о подозреваемом в недавнем массовом расстреле.
Обстоятельства трагедии
Недавний инцидент в Тумблер-Ридж, в результате которого погибли восемь человек, стал настоящей трагедией для местного сообщества. 18-летний Джесси Ван Рутселар был идентифицирован как предполагаемый стрелок. По информации Wall Street Journal, OpenAI заблокировала аккаунт Ван Рутселара в ChatGPT в июне 2025 года из-за его обсуждений сцен с насилием. Однако, несмотря на это, компания не сообщила о его действиях полиции, что вызвало общественное недовольство.
Реакция OpenAI и меры безопасности
После трагедии OpenAI признала свои ошибки и объявила о том, что планирует улучшить свои протоколы безопасности. По словам Альтмана, в компании теперь будут действовать более гибкие критерии для определения, когда нужно уведомлять власти о подозрительных аккаунтах. Также будет установлен прямой контакт с канадскими правоохранительными органами для более оперативного реагирования.
Обсуждение с местными властями
Сэм Альтман в своем письме отметил, что обсудил ситуацию с мэром Тумблер-Риджа Даррилом Краковкой и премьер-министром Британской Колумбии Дэвидом Иби. В ходе этих обсуждений все стороны пришли к согласию о необходимости публичного извинения и улучшения коммуникации между технологическими компаниями и правоохранительными органами.
Заключение
Инцидент в Тумблер-Ридж поднимает важные вопросы о том, как технологические компании должны взаимодействовать с правоохранительными органами. Письмо Сэма Альтмана демонстрирует, что OpenAI осознает свою ответственность и стремится к улучшению. Это случай, который, надеемся, послужит уроком для других компаний в области технологий, чтобы они более внимательно относились к потенциальным угрозам и реагировали на них своевременно.
История показывает, что модерация в AI-сервисах — не просто техническая задача, а вопрос общественной безопасности. OpenAI столкнулась с дилеммой: блокировать контент или уведомлять власти? Компания выбрала первое, но этого оказалось недостаточно. Теперь речь идет о стандартах сотрудничества между Big Tech и правоохранительными органами.
В России и странах СНГ аналогичные протоколы между IT-компаниями и ФСБ/МВД существуют, но остаются закрытыми. История OpenAI заставляет задать вопрос: достаточно ли прозрачны наши системы уведомления об угрозах? Российским стартапам стоит изучить международный опыт, чтобы не повторить чужих ошибок.