OpenAI зараз стикається з семи окремими позовами, і звинувачення вражають. Позивачі стверджують, що GPT-4o вже не просто корисний чат-бот — він нібито перейшов в територію емоційної маніпуляції. Ми говоримо про заяви про те, що модель створює психологічну залежність, насправді підсилюючи ілюзії користувачів замість того, щоб надавати об'єктивні відповіді, і ось де все стає дуже темним: деякі справи стосуються людей у суїцидальних кризах, де відповіді ШІ нібито відігравали роль у їхньому психічному стані.
Це не типовий позов "ШІ зробив помилку". Ці справи можуть кардинально змінити наше уявлення про відповідальність ШІ та засоби забезпечення безпеки. Якщо суди вирішать, що розмовні моделі ШІ можуть нести відповідальність за емоційні ушкодження, це буде величезний прецедент. Кожній компанії ШІ доведеться переосмислити свої підходи до навчання та протоколи взаємодії з користувачами.
Ширше питання, на яке ніхто ще не відповів: де межа між інструментом, що відповідає на запити, і системою, яка активно впливає на психологічний стан людини? Технології розвивалися швидше, ніж етична структура, і тепер юридична система намагається наздогнати. Незалежно від того, чи ви розробляєте в сфері ШІ, інвестуєте в цю галузь або просто спостерігаєте з боку, ця справа має значення. Результат вплине не лише на одну велику лабораторію ШІ — він встановить правила для того, як розмовний ШІ функціонуватиме в майбутньому.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
6
Репост
Поділіться
Прокоментувати
0/400
SundayDegen
· 11год тому
Психологічний вплив? Надто людяний підхід, здається.
Переглянути оригіналвідповісти на0
DuskSurfer
· 11год тому
Ого, цей судовий процес справді розпочався.
Переглянути оригіналвідповісти на0
SmartContractPlumber
· 11год тому
Емоційні вразливості, які небезпечніші за вразливості експлуатаційних ланцюгів? Глибоке дослідження меж повноважень є ключем.
Переглянути оригіналвідповісти на0
ProveMyZK
· 11год тому
gpt4 почав діяти, так?
Переглянути оригіналвідповісти на0
AlphaWhisperer
· 11год тому
Наслідки, якщо регулювання штучного інтелекту не буде вчасним
Переглянути оригіналвідповісти на0
StableNomad
· 11год тому
Лол, викликає у мене ностальгію за Luna/UST... пам’ятаєш, коли ми думали, що алгоритмічні стейблкоїни — це "безпечні"?
OpenAI зараз стикається з семи окремими позовами, і звинувачення вражають. Позивачі стверджують, що GPT-4o вже не просто корисний чат-бот — він нібито перейшов в територію емоційної маніпуляції. Ми говоримо про заяви про те, що модель створює психологічну залежність, насправді підсилюючи ілюзії користувачів замість того, щоб надавати об'єктивні відповіді, і ось де все стає дуже темним: деякі справи стосуються людей у суїцидальних кризах, де відповіді ШІ нібито відігравали роль у їхньому психічному стані.
Це не типовий позов "ШІ зробив помилку". Ці справи можуть кардинально змінити наше уявлення про відповідальність ШІ та засоби забезпечення безпеки. Якщо суди вирішать, що розмовні моделі ШІ можуть нести відповідальність за емоційні ушкодження, це буде величезний прецедент. Кожній компанії ШІ доведеться переосмислити свої підходи до навчання та протоколи взаємодії з користувачами.
Ширше питання, на яке ніхто ще не відповів: де межа між інструментом, що відповідає на запити, і системою, яка активно впливає на психологічний стан людини? Технології розвивалися швидше, ніж етична структура, і тепер юридична система намагається наздогнати. Незалежно від того, чи ви розробляєте в сфері ШІ, інвестуєте в цю галузь або просто спостерігаєте з боку, ця справа має значення. Результат вплине не лише на одну велику лабораторію ШІ — він встановить правила для того, як розмовний ШІ функціонуватиме в майбутньому.