Маск, Возняк та більше тисячі експертів закликали призупинити розробку штучного інтелекту

дизайн,компьютер,интеллект,искусственный,ноут,тридэ

Некомерційна організація Future of Life Institute, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство, опублікувала публічного листа з вимогою призупинити принаймні на шість місяців навчання систем штучного інтелекту, потужніших за GPT-4.

Об этом сообщает ФИБ


Цього листа вже підписали тисячі візіонерів, включно з CEO SpaceX, Tesla та Twitter Ілоном Маском, співзасновником Apple Стівом Возняком, співзасновником Ripple Крісом Ларсеном, CEO Stability AI Емадом Мостаком та професорами десятків світових університетів, пише AIN.UA.

У Future of Life Institute зазначають, що системи штучного інтелекту з конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства загалом, а до його розгортання та розробки потрібно підходити з відповідальністю.

"На жаль, ми не спостерігаємо достатнього рівня планування та управління, а в останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не можуть зрозуміти. Прогнозувати або надійно контролювати", – зазначають автори відкритого листа.

На їх думку, потужні системи штучного інтелекту слід розробляти лише тоді, коли людство буде впевнене, що їхній ефект буде позитивним, а ризики – керованими. Тому в Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на шість місяців навчання потужніших за GPT-4 систем.

Під час цієї паузи системи мають бути загальнодоступними та для перевірки та включати всіх ключових учасників. Якщо таку паузу не вийде здійснити, то уряди повинні втрутитися та ввести мораторій на розробку ШІ. Паралельно розробники ШІ повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління штучним інтелектом. Вони повинні включати щонайменше:

  • нові дієві регуляторні органи, які займаються штучним інтелектом;
  • нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей;
  • системи відстеження походження та ідентифікації, які б могли допомогти відрізнити справжні (тексти/фото) від створених синтетично та відстежувати витоки моделей;
  • надійну екосистема аудиту та сертифікації;
  • відповідальність за шкоду, заподіяну штучним інтелектом;
  • надійне державне фінансування технічних досліджень безпеки штучного інтелекту;
  • а також добре забезпечені ресурсами установи для подолання економічних і політичних зривів (особливо для демократії), які спричинить штучний інтелект.

Лист із закликом негайно призупинити всі лабораторії з навчання систем ШІ уже підписало 1125 людей, серед яких генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, старша наукова співробітниця DeepMind Вікторія Краковна, співзасновник Ripple Кріс Ларсен, CEO Stability AI Емад Мостак та професори десятків світових університетів.

Подібна акція проходила у 2015 році, коли Стівен Хокінг, Ілон Маск і понад тисяча вчених та дослідників робототехніки підписали лист із пропозицію щодо заборони використання штучного інтелекту у війнах. Проте такі розробки не зупинялися й продовжуються досі.

Источник: Москов пост