«Зьніжэньне рызыкі выміраньня чалавецтва з-за разьвіцьця штучнага інтэлекту павінна стаць глябальным прыярытэтам поруч зь іншымі рызыкамі, такімі як пандэміі і ядзерная вайна», — гаворыцца ў заяве, апублікаваным на сайце Цэнтру бясьпекі штучнага інтэлекту ў Сан-Францыска, паведамляе ВВС.

Гэта ўвесь тэкст заявы, які ягоныя аўтары наўмысна зрабілі максымальна кароткім.

Заяву ўжо падпісалі больш за 350 кіраўнікоў, дасьледчыкаў і інжынэраў у галіне штучнага інтэлекту, у тым ліку Сэм Альтман з OpenAI, Дэміс Хасабіс з Google DeepMind і Дарыё Амадэй з Anthropic.

Дакумэнт таксама падпісалі ляўрэаты прэміі Цьюрынга за працу над нэўроннымі сеткамі Джэфры Гінтан і Джошуа Бенджыа, якіх часта называюць хроснымі бацькамі штучнага інтэлекту. У пачатку траўня Гінтан нават падаў у адстаўку са сваёй пасады ў Google, каб мець магчымасьць свабодна казаць пра патэнцыйную шкоду тэхналёгіяў, не аглядаючыся на карпаратыўную этыку.

Ня першае папярэджаньне

Заява, апублікаванае на сайце Цэнтру бясьпекі штучнага інтэлекту, — ня першае папярэджаньне падобнага кшталту. У сакавіку вядучыя дзеячы ў галіне распрацоўкі штучнага інтэлекту, у тым ліку Ілан Маск і заснавальнік Apple Стыў Возьняк, ужо заклікалі прыпыніць дасьледаваньні ў гэтай галіне да таго часу, пакуль ня будуць распрацаваныя і ўкаранёныя надзейныя пратаколы бясьпекі.

Яны апублікавалі адкрыты ліст, у якім падрабязна апісалі патэнцыйныя, зь іх пункту гледжаньня, рызыкі, якімі можа суправаджацца разьвіцьцё штучнага інтэлекту. Сярод іх былі распаўсюджваньне дэзінфармацыі, скарачэньне працоўных месцаў, у тым ліку і ў тых сфэрах, якія прыносяць радасьць творчасьці, і ўвогуле — магчымасьць поўнай страты кантролю над разьвіцьцём чалавечай цывілізацыі.

Заканадаўцы ЭЗ ужо распрацоўваюць эўрапейскі закон аб штучным інтэлекце, аналягічныя абмежаваньні разглядаюцца і ў ЗША.

Пры гэтым скептыкі лічаць, што любыя абмежаваньні бессэнсоўныя да таго часу, пакуль яны не атрымаюць глябальнага распаўсюджваньня. Улічваючы, што сама прырода інтэрнэту не прадугледжвае захаваньня межаў, небясьпечныя праявы штучнага інтэлекту, распрацаванага, напрыклад, у Расеі, ці Кітаі, усё роўна могуць прывесьці да нэгатыўных наступстваў для грамадзян Эўропы ці ЗША.