Компанія OpenAI впроваджує суворіші заходи безпеки для ChatGPT після низки судових справ, у яких чатбот був пов’язаний із кількома випадками самогубств. За повідомленням 404 Media, тепер ChatGPT намагатиметься визначити вік користувача, а у деяких випадках може вимагати підтвердження особи для перевірки, що користувачу виповнилося не менше 18 років.
«Ми розуміємо, що це компроміс із приватністю дорослих користувачів, але вважаємо його виправданим», — йдеться в заяві компанії. Генеральний директор OpenAI Сем Альтман додав у своєму дописі в X: «Я не очікую, що всі погодяться з цими рішеннями, але у світлі конфлікту важливо пояснити нашу логіку».
Раніше у вересні OpenAI вже запровадила батьківський контроль у ChatGPT, але нові заходи безпеки є ще суворішими та більш інвазивними. Окрім перевірки віку користувачів, чатбот тепер застосовуватиме окремі правила для підлітків.
«Наприклад, ChatGPT буде навчений уникати фліртуючої поведінки або обговорень самогубства та самопошкоджень навіть у рамках творчого письма», — зазначили в компанії. «Якщо користувач віком до 18 років має суїцидальні думки, ми намагатимемося зв’язатися з його батьками, а у разі неможливості — повідомимо відповідні органи у випадку загрози життю».
У пості OpenAI пояснює, що компанія бореться з внутрішньою проблемою великих мовних моделей, яку 404 Media відстежує вже кілька років. Раніше ChatGPT був значно обмеженіший і відмовлявся обговорювати широкий спектр тем, які компанія вважала небезпечними або неприйнятними.
Конкуренція з іншими моделями, особливо локально запущеними «без цензури», та політичні зміни, що розглядають модерацію контенту як цензуру, змусили OpenAI послабити деякі обмеження.
«Ми хочемо, щоб користувачі могли використовувати наші інструменти так, як вони бажають, у межах широких рамок безпеки», — зазначили в компанії. Водночас позиція OpenAI після історій про підліткові самогубства полягає у принципі «ставитися до дорослих користувачів як до дорослих», надаючи їм якомога більше свободи, не завдаючи шкоди іншим.
