OpenAI, компанія, що стоїть за ChatGPT та численними іншими комерційними AI-додатками, тривалий час прагнула до створення штучного загального інтелекту (AGI), який "принесе користь всьому людству". Однак зараз організація суттєво коригує своє бачення того, як може виникнути ця трансформаційна технологія.
У недавньому блозі OpenAI зазначає, що тепер вони більше не очікують, що штучний загальний інтелект з'явиться як прорив, що AI-системи раптово досягнуть надлюдських можливостей. Натомість компанія тепер розглядає розвиток AGI як безперервний процес, що характеризується поступовими, крок за кроком вдосконаленнями.
Зміна поглядів OpenAI на AGI також призвела до більш практичного підходу до безпеки. Замість того, щоб планувати теоретичні майбутні сценарії, компанія тепер хоче навчатися з досвіду роботи з сучасними AI-системами. Це, звісно, добре узгоджується з їхньою комерційною стратегією.
Компанія ставить перед собою мету створити заходи безпеки, які посилюватимуться разом із розвитком AI. Не так давно вони представили нову систему безпеки, яка може масштабуватися, оскільки AI стає потужнішим, можливо, навіть до рівня AGI.
Вони вважають, що суспільство повинно мати право визначати, як поводяться AI-системи та які цінності вони відображають. Щоб це було можливим, компанія будує інструменти, які допомагають людям чітко взаємодіяти з AI-системами та зберігати контроль, навіть коли AI ставатиме потужнішим за людей в деяких сферах.
OpenAI тепер по-іншому оцінює деякі свої ранні рішення щодо безпеки. Компанія наводить своє рішення 2019 року тимчасово утримати GPT-2 від публічного релізу як приклад "надмірної обережності", що виникла через уявлення про AGI як про раптовий прорив. Тоді компанія випустила лише меншу версію моделі "через побоювання, що великі мовні моделі можуть бути використані для генерації обманних, упереджених чи образливих висловлювань в масштабах".
Проте Майлс Брандейдж, колишній керівник політичних досліджень в OpenAI, оскаржує нову інтерпретацію компанії щодо утримання GPT-2. Він вважає, що поступовий випуск GPT-2 вже відображав філософію ітеративного розвитку, і багато експертів із безпеки оцінили цей обережний підхід на основі доступної тоді інформації.
AGI — це те, що приносить величезний прибуток
Нещодавній звіт The Information показав, що контракт OpenAI з Microsoft містить практичне визначення AGI: система, яка перевершує людей у більшості економічно цінних завдань і генерує принаймні $100 мільярдів прибутку.
Це узгоджується з оновленим поглядом OpenAI на AGI як поступовий процес, критикою CEO Microsoft Сатьї Наделли щодо "нелогічного маніпулювання бенчмарками" в гонитві за самопроголошеними етапами AGI і словами Айлтмана, який закликав своїх підписників на X "розслабитись і знизити очікування в 100 разів" у контексті можливого швидкого релізу AGI.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.