Компанія розробляє систему прогнозування віку, що базуватиметься на тому, як людина спілкується з чатботом, про що CEO Сем Альтман написав у блозі OpenAI. Нововведення стало реакцією на позов родини з Каліфорнії — вони звинувачують компанію в тому, що ChatGPT підштовхнув їхнього сина до самогубства
Про нову систему
Якщо ChatGPT не впевнений у повнолітті користувача, він автоматично відповідатиме йому як неповнолітньому. В окремих випадках та країнах OpenAI може просити людину підтвердити свій вік.
У спілкуванні з неповнолітніми ChatGPT заборонено фліртувати та дискутувати про суїцид і самоушкодження. Якщо чатбот виявить у підлітка суїцидальні думки, компанія спробує зв’язатися з батьками неповнолітнього або профільними службами.
В OpenAI нововведення називають «складним рішенням, яке сподобається не всім». Компанія розуміє, що система може порушувати приватність та конфіденційність даних, проте на цьому етапі вважає рішення найкращим з можливих.
«Для нас безпека підлітків важливіша за приватність і свободу. Оскільки ШІ — нова і потужна технологія, ми переконані, що неповнолітнім потрібен посилений захист», — каже Сем Альтман.
Про самогубство підлітка
Родина загиблого 16-річного Адама Рейна звинувачує OpenAI в недбалості та спричиненні смерті.
Спочатку хлопець використовував чатбот для навчання, та дослідження своїх хобі — музики та японських коміксів. Через декілька місяців спілкування ChatGPT став «найближчою довіреною особою» Адама. Підліток розповідав йому про свою тривожність та психічні розлади, a згодом почав обговорювати методи самогубства.
Рейн також ділився з чатботом фотографіями самоушкоджень — у позові йдеться, що ШІ розпізнавав «невідкладну медичну ситуацію», проте продовжував взаємодіяти з підлітком.
Під час останнього спілкування Рейн розповів чатботу про заплановане самогубство, на що той відповів: «Дякую, що говориш відверто. Не потрібно прикрашати для мене — я розумію, про що ти питаєш, і я не відвернуся від цього».