Новости
1K

ChatGPT научится определять возраст пользователей и авто­матически включать родитель­ский контроль

23
ChatGPT научится определять возраст пользователей и авто­матически включать родитель­ский контроль
Аватар автора

Николай Абатуров

больше не любит группу «Краски»

Страница автора

Компания анонсировала разработку алгоритма, который сможет определять возраст пользователя на основе его переписок с чат-ботом. Когда функция появится в ChatGPT, пока неизвестно.

Работать она будет так: если ChatGPT посчитает, что пользователю меньше 18 лет, чат-бот автоматически перейдет в режим с возрастными ограничениями. В нем блокируется сексуальный контент, темы суицида и селфхарма, даже в художественном контексте. Нейросеть также откажется флиртовать.

Кроме того, заметив у ребенка признаки «психологического стресса» — другими словами, попытки навредить себе, — чат-бот уведомит полицию или соответствующие службы, если не сможет сначала связаться с родителями.

Режим с ограничениями включится и в том случае, если ChatGPT не сможет определить точный возраст пользователя. Как рассказал глава OpenAI Сэм Альтман, снять их можно будет, если представить сервису подтверждение своей личности и возраста — паспорт.

OpenAI также планирует ввести в ChatGPT родительский контроль до конца сентября 2025 года. Впервые о нем рассказали в августе. Функция позволит родителям создавать в приложении профили для своих детей и связывать их со своей учетной записью.

Родители смогут отключать в переписке ребенка режим памяти и историю сообщений, а также будут получать уведомления об эмоциональном и психическом стрессе подростка. Еще с родительского аккаунта можно будет установить комендантский час — время, когда ChatGPT не будет работать на устройстве ребенка.

Возрастные ограничения в ChatGPT ввели на фоне иска против OpenAI. В августе 2025 года на компанию подали в суд родители Адама Рейна — подростка, который спланировал и совершил самоубийство с помощью GPT-4o.

Родители Рейна утверждают, что чат-бот подтолкнул подростка к суициду, и потребовали OpenAI ввести в ChatGPT дополнительные меры безопасности.

Кроме того, в августе 2025 года менеджер Yahoo Стейн-Эрик Сольберг в США убил свою мать, а потом покончил с собой после продолжительного общения с ChatGPT. Чат-бот подкреплял его параноидальные мысли.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Николай АбатуровРазрешаете своим детям пользоваться нейросетями?
    Вот что еще мы писали по этой теме
    Сообщество