Маск, Вазняк і яшчэ больш за тысячу экспэртаў заклікалі прыпыніць навучанне нейрасетак
107- 29.03.2023, 18:02
- 28,802
Гэта можа ўяўляць пагрозу для ўсяго чалавецтва.
Кіраўнік SpaceX Ілан Маск, сузаснавальнік Apple Стыў Вазняк, прафесар кампутарных навук Сцюарт Расэл і яшчэ блізу тысячы экспэртаў са сферы ШІ заклікалі прыпыніць навучанне нейрасетак больш магутных, чым GPT-4, бо гэта можа ўяўляць пагрозу для ўсяго чалавецтва. Аб гэтым яны заявілі ў адкрытым лісце, апублікаваным на сайце арганізацыі Future of Life Institute.
У лісце гаворыцца, што сістэмы ШІ з інтэлектам, канкурэнтным для чалавека, могуць несці сур'ёзныя рызыкі для грамадства і чалавецтва. У ім змяшчаецца заклік да лабараторый прыпыніць навучанне на шэсць месяцаў.
«Магутныя сістэмы штучнага інтэлекту варта распрацоўваць толькі тады, калі мы ўпэўненыя, што іх эфекты будуць станоўчымі, а іх рызыкі будуць кіраванымі», – падкрэсліваюць аўтары ліста.
У лісце таксама ўказваецца, што лабараторыі і незалежныя экспэрты павінны выкарыстоўваць паўзу шэсць месяцаў для супольнай распрацоўкі і ўкаранення набору агульных пратаколаў, якія павінны гарантаваць бяспеку.
Нагадаем, у канцы студзеня Microsoft абвясціла пра шматгадовыя і шматмільярдныя інвестыцыі ў лабараторыю штучнага інтэлекту (ШІ) OpenAI, якая сярод іншага стварыла чат-бот ChatGPT. Microsoft не назвала пэўную суму, але СМІ паведамлялі аб аб'ёме 10 млрд даляраў.
ChatGPT – гэта чат-бот, заснаваны на апошняй версіі моўнай мадэлі GPT. Ён быў запушчаны ў канцы лістапада 2022 года, а ўсяго праз тыдзень пасля запуску колькасць яго карыстальнікаў дасягнула 1 млн.
Такая папулярнасць, са слоў распрацоўнікаў, тлумачыцца тым, што ChatGPT навучаны «адказваць на паслядоўныя пытанні, прызнаваць свае памылкі, аспрэчваць некарэктныя ўступныя звесткі і адхіляць недарэчныя пытанні».
У Сетцы можна знайсці шмат прыкладаў выкарыстання ChatGPT: ад складання рэзюмэ ці інвестыцыйнага партфеля да напісання прывітальнага паведамлення ў дадатку для знаёмстваў або прамовы ў Кангрэсе ЗША, ад вершаў да дапамогі ў напісанні праграмнага кода.