Станом на 29 березня звернення підписало понад 1200 науковців, бізнесменів та експертів, серед них американський бізнесмен, гендиректор компаній Tesla та SpaceX Ілон Маск, американський бізнесмен, співзасновник соцмережі Pinterest Еван Шарп, американський програміст, співзасновник Apple Стів Возняк, генеральний директор фотоагентства Getty Images Крейг Пітерс, ізраїльський історик Ювал Ной Харарі.
У зверненні йдеться, що всі дослідження потужніших систем штучного інтелекту, ніж GPT-4 від компанії OpenAI, необхідно зупинити як такі, що становлять серйозну небезпеку для суспільства і людства, доки не з'являться загальні протоколи безпеки.
"Потужні системи штучного інтелекту варто розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики – керованими. Ця впевненість має бути добре обґрунтованою та зростати з величиною потенційних ефектів системи", – ідеться у зверненні.
Зазначають, що просунутий ШІ може запустити глибоку зміну в історії життя на Землі.
"Сучасні системи штучного інтелекту наразі стають конкурентоспроможними з людьми під час вирішення спільних завдань, і ми мусимо запитати себе: чи маємо ми дозволяти машинам наповнювати наші інформаційні канали пропагандою і неправдою? Чи маємо ми автоматизувати всі робочі місця, зокрема ті, що приносять задоволення? Чи маємо ми розвивати нелюдські уми, які зрештою можуть перевершити нас чисельністю, перехитрити і замінити нас? Чи маємо ми ризикувати втратою контролю над нашою цивілізацією?" – ідеться у листі.
Автори підкреслюють, що важливо дістати незалежну оцінку, перш ніж розпочинати навчання майбутніх систем. Вони зазначають, що сучасні потужні системи мають бути більш точними, безпечними, інтерпретованими, прозорими, надійними, узгодженими, мають заслуговувати на довіру і бути лояльними.
Також наголошують, що важливо працювати у співпраці з політиками, щоб розробити відповідні органи контролю.
Глава OpenAI Сем Альтман не підписав звернення, повідомляє Reuters.