
ChatGPT научится определять возраст пользователей и автоматически включать родительский контроль

16 сентября OpenAI рассказала о грядущем обновлении системы безопасности ChatGPT.
Компания анонсировала разработку алгоритма, который сможет определять возраст пользователя на основе его переписок с чат-ботом. Когда функция появится в ChatGPT, пока неизвестно.
Работать она будет так: если ChatGPT посчитает, что пользователю меньше 18 лет, чат-бот автоматически перейдет в режим с возрастными ограничениями. В нем блокируется сексуальный контент, темы суицида и селфхарма, даже в художественном контексте. Нейросеть также откажется флиртовать.
Кроме того, заметив у ребенка признаки «психологического стресса» — другими словами, попытки навредить себе, — чат-бот уведомит полицию или соответствующие службы, если не сможет сначала связаться с родителями.
Режим с ограничениями включится и в том случае, если ChatGPT не сможет определить точный возраст пользователя. Как рассказал глава OpenAI Сэм Альтман, снять их можно будет, если представить сервису подтверждение своей личности и возраста — паспорт.
OpenAI также планирует ввести в ChatGPT родительский контроль до конца сентября 2025 года. Впервые о нем рассказали в августе. Функция позволит родителям создавать в приложении профили для своих детей и связывать их со своей учетной записью.
Родители смогут отключать в переписке ребенка режим памяти и историю сообщений, а также будут получать уведомления об эмоциональном и психическом стрессе подростка. Еще с родительского аккаунта можно будет установить комендантский час — время, когда ChatGPT не будет работать на устройстве ребенка.
Возрастные ограничения в ChatGPT ввели на фоне иска против OpenAI. В августе 2025 года на компанию подали в суд родители Адама Рейна — подростка, который спланировал и совершил самоубийство с помощью GPT-4o.
Родители Рейна утверждают, что чат-бот подтолкнул подростка к суициду, и потребовали OpenAI ввести в ChatGPT дополнительные меры безопасности.
Кроме того, в августе 2025 года менеджер Yahoo Стейн-Эрик Сольберг в США убил свою мать, а потом покончил с собой после продолжительного общения с ChatGPT. Чат-бот подкреплял его параноидальные мысли.
Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult