Лідери світової науки закликають до встановлення «червоних ліній» для штучного інтелекту

Більше двохсот провідних науковців, серед яких лауреати Нобелівської премії та дослідники з компаній Anthropic, Google, Microsoft і OpenAI, підписали документ під назвою Global Call for AI Red Lines. У ньому вони закликають уряди країн, представлених на Генеральній Асамблеї ООН, швидко визначити межі допустимого використання штучного інтелекту, які не слід перевищувати.

Пропозиції та сфери ризику

Серед можливих «червоних ліній» науковці пропонують заборонити використання ШІ для управління ядерними арсеналами або будь-якими автономними бойовими системами, а також для масового спостереження, кібернападів і створення deepfake-контенту. Автори документа підкреслюють, що технологія розвивається надзвичайно швидко, і уряди повинні встановити чіткі обмеження до кінця наступного року.

Потенційні загрози

У листі зазначено: «Штучний інтелект може незабаром перевершити людські можливості та підвищити ризики, включаючи штучно створені пандемії, масову дезінформацію, масштабну маніпуляцію людьми, включно з дітьми, загрози національній та міжнародній безпеці, масову безробітність і системні порушення прав людини» (джерело: Reuters). Автори попереджають, що без своєчасного втручання контроль людини над технологією стане дедалі складнішим.

Висновок

Документ підкреслює необхідність міжнародної координації у сфері регулювання ШІ. Науковці закликають світових лідерів діяти вже зараз, щоб встановити чіткі рамки використання штучного інтелекту і запобігти потенційним глобальним загрозам у майбутньому.

Джерело: Reuters

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *