(Зображення: wildpixel/Getty Images)
OpenAI запустила агент ChatGPT, оновлення своєї флагманської моделі штучного інтелекту (ШІ), яке оснащує його віртуальним комп'ютером та інтегрованим набором інструментів.
Ці нові інструменти дозволяють агенту виконувати складні, багатоетапні завдання, на які попередні ітерації ChatGPT не були здатні — керувати вашим комп’ютером та виконувати завдання за вас.
Ця потужніша версія, яка все ще дуже залежить від людського втручання та нагляду, з'явилася незадовго до того, як Марк Цукерберг оголосив, що дослідники Meta спостерігали, як їхні власні моделі штучного інтелекту демонструють ознаки самостійного самовдосконалення. Вона також була запущена незадовго до того, як OpenAI запустила GPT-5 — останню версію чат-бота OpenAI.
Вам може сподобатися
-
Дослідження попереджає, що якщо погрожуватимете чат-боту зі штучним інтелектом, він брехатиме, обманюватиме та «дозволить вам померти», намагаючись вас зупинити.
-
Штучний інтелект постійно «галюцинує», але є рішення
-
«Метамфетамін – це те, що дозволяє вам виконувати свою роботу»: дослідження показує, що штучний інтелект може підштовхнути вас до рецидиву, якщо ви боретеся із залежністю
За допомогою агента ChatGPT користувачі тепер можуть просити модель великої мови програмування (LLM) не лише виконувати аналіз або збирати дані, але й діяти на основі цих даних, йдеться у заяві представників OpenAI.
Наприклад, ви можете доручити агенту оцінити ваш календар і повідомити вас про майбутні події та нагадування, або вивчити корпус даних і узагальнити його в стислому синопсисі або у вигляді слайдів. У той час як традиційний LLM може шукати та надавати рецепти сніданку в японському стилі, агент ChatGPT може повністю планувати та закуповувати інгредієнти для того самого сніданку для певної кількості гостей.
Однак нова модель, хоча й має високі можливості, все ще стикається з низкою обмежень. Як і всі моделі штучного інтелекту, її просторове мислення слабке, тому вона має труднощі з такими завданнями, як планування фізичних маршрутів. Їй також бракує справжньої постійної пам'яті, обробки інформації в даний момент без надійного відтворення або здатності посилатися на попередні взаємодії поза межами безпосереднього контексту.
Однак агент ChatGPT демонструє значні покращення в бенчмаркінгу OpenAI. У Humanity's Last Exam, бенчмарку штучного інтелекту, який оцінює здатність моделі відповідати на запитання експертного рівня з низки дисциплін, він більш ніж удвічі перевищив відсоток точності (41,6%) порівняно з OpenAI o3 без належного обладнання (20,3%).
Він також показав набагато кращі результати, ніж інші інструменти OpenAI, а також свою версію, якій бракувало таких інструментів, як браузер і віртуальний комп'ютер. У найскладнішому відомому у світі математичному бенчмарку FrontierMath агент ChatGPT та його набір інструментів знову значно перевершили попередні моделі.
Агент побудований на трьох основах, запозичених з попередніх продуктів OpenAI. Одна частина — це «Оператор», агент, який використовуватиме власний віртуальний браузер для пошуку користувачів в Інтернеті. Друга — це «глибоке дослідження», створене для аналізу та синтезу великих обсягів даних. Останнім елементом пазлу є попередні версії самого ChatGPT, які відзначалися плавністю розмовного спілкування та презентацією.
«По суті, він може автономно переглядати веб-сторінки, генерувати код, створювати файли тощо, і все це під наглядом людини», — сказав Кофі Ньярко, професор Університету штату Морган та директор Дослідницької лабораторії інженерії даних та прогнозної аналітики (DEPA).
Однак Ньярко швидко наголосив, що новий агент все ще не є автономним. «Галюцинації, нестабільність інтерфейсу користувача або неправильне тлумачення можуть призвести до помилок. Вбудовані запобіжні заходи, такі як запити на дозвіл та можливість переривання, є важливими, але недостатніми для повного усунення ризику».
Небезпека розвитку штучного інтелекту
Сама компанія OpenAI визнала небезпеку нового агента та його підвищену автономність. Представники компанії заявили, що агент ChatGPT має «високі біологічні та хімічні можливості», які, за їхньою твердженням, потенційно дозволяють йому допомагати у створенні хімічної або біологічної зброї.
Порівняно з існуючими ресурсами, такими як хімічна лабораторія та підручник, агент ШІ являє собою те, що експерти з біобезпеки називають «шляхом ескалації можливостей». ШІ може використовувати незліченну кількість ресурсів та миттєво синтезувати дані в них, об’єднувати знання з різних наукових дисциплін, забезпечувати ітеративне усунення несправностей, як експерт-наставник, навігувати веб-сайти постачальників, заповнювати форми замовлень і навіть допомагати обходити базові перевірки.
За допомогою свого віртуального комп'ютера агент також може автономно взаємодіяти з файлами, веб-сайтами та онлайн-інструментами таким чином, що він може завдати набагато більшої потенційної шкоди у разі неправильного використання. Можливість витоку даних або маніпуляцій з даними, а також неналежної поведінки, такої як фінансове шахрайство, посилюється у разі атаки швидкого введення даних або захоплення системи.
Як зазначив Ньярко, ці ризики додаються до тих, що неявно притаманні традиційним моделям штучного інтелекту та методам магістрального навчання (LLM).
«Існують ширші проблеми щодо агентів ШІ в цілому, наприклад, як агенти, що працюють автономно, можуть посилювати помилки, вносити упередження з публічних даних, ускладнювати системи відповідальності та ненавмисно сприяти психологічній залежності», – сказав він.
ПОВ'ЯЗАНІ ІСТОРІЇ
— Чоловік звернувся за порадою щодо дієти до ChatGPT і в результаті отримав небезпечний синдром «бромізму»
— «Набридливу» версію ChatGPT видалено після того, як чат-бот не переставав підлещуватися користувачам
— Дослідження показує, що покарання ШІ не зупиняє його від брехні та обману, а просто змушує його краще ховатися.
У відповідь на нові загрози, які створює більш агентна модель, інженери OpenAI також посилили низку запобіжних заходів, йдеться у заяві представників компанії.
До них належать моделювання загроз, навчання відмові від подвійного використання — де модель навчають відхиляти шкідливі запити щодо даних, які можуть мати як корисне, так і зловмисне використання — програми винагороди за виявлення помилок та експертна робота в червоному команді — аналіз слабких місць шляхом самостійної атаки на систему — зосереджена на біозахисті. Однак оцінка управління ризиками, проведена в липні 2025 року SaferAI, некомерційною організацією, що зосереджена на безпеці, назвала політику управління ризиками OpenAI слабкою, присвоївши їй бал 33% зі 100 можливих. OpenAI також отримав лише оцінку C за індексом безпеки штучного інтелекту, складеним Future of Life Institute, провідною фірмою з безпеки штучного інтелекту.
Алан Бредлі, позаштатний автор
Алан — позаштатний журналіст у сфері технологій та розваг, який спеціалізується на комп’ютерах, ноутбуках та відеоіграх. Раніше він писав для таких сайтів, як PC Gamer, GamesRadar та Rolling Stone. Якщо вам потрібна порада з питань технологій або допомога у пошуку найкращих пропозицій у сфері технологій, Алан — це саме те, що вам потрібно.
Ви повинні підтвердити своє публічне ім'я, перш ніж коментувати
Будь ласка, вийдіть із системи, а потім увійдіть знову. Після цього вам буде запропоновано ввести своє ім'я для відображення.
Вийти Читати далі
Дослідження попереджає, що якщо погрожуватимете чат-боту зі штучним інтелектом, він брехатиме, обманюватиме та «дозволить вам померти», намагаючись вас зупинити.
Штучний інтелект постійно «галюцинує», але є рішення
«Метамфетамін – це те, що дозволяє вам виконувати свою роботу»: дослідження показує, що штучний інтелект може підштовхнути вас до рецидиву, якщо ви боретеся із залежністю
Чат-боти зі штучним інтелектом надмірно спрощують наукові дослідження та замовчують важливі деталі — найновіші моделі особливо винні в цьому
ChatGPT може вражаюче добре керувати космічним кораблем, показують ранні випробування
Моделі штучного інтелекту можуть надсилати підсвідомі повідомлення, які навчають інші штучні інтелекти бути «злими», стверджує дослідження.
Ви довіряєте ШІ?
Штучний інтелект не може розв'язати ці головоломки, які займають у людей лише секунди
Вчені кажуть, що ШІ може вийти з ладу 32 різними способами — від галюцинаційних відповідей до повної невідповідності з людством
Вчені щойно розробили новий штучний інтелект, змодельований за зразком людського мозку, — він перевершує LLM, такі як ChatGPT, у завданнях мислення.
IBM та NASA створюють перший у своєму роді штучний інтелект, який може точно передбачати сильні спалахи на Сонці
Як штучний інтелект-компаньйони змінюють поведінку підлітків дивовижним та зловісним чином Останні новини
Сонячна буря-«канібал» може зобразити полярні сяйва над 18 штатами США цього Дня праці
Вчені пропонують використовувати пилок для виготовлення паперу та губок
Залишки стародавніх вірусів складають 40% нашого геному. Вони можуть спровокувати дегенерацію мозку.
2200-річний «складний та витончений» кельтський оберіг воїна свідчить про витончену металообробку залізної доби.
Катастрофічне зіткнення із сусідньою планетою може бути причиною існування життя на Землі сьогодні, натякають нові дослідження
Наукові новини цього тижня: перша у світі трансплантація легень від свині людині, а також успішний випробувальний політ Starship від SpaceX. ОСТАННІ СТАТТІ
15 недооцінених фотоаксесуарів, про які ви не знали
Live Science є частиною Future US Inc, міжнародної медіагрупи та провідного цифрового видавництва. Відвідайте наш корпоративний сайт.
- Про нас
- Зверніться до експертів Future
- Умови та положення
- Політика конфіденційності
- Політика щодо файлів cookie
- Заява про доступність
- Рекламуйтеся у нас
- Веб-сповіщення
- Кар'єра
- Редакційні стандарти
- Як запропонувати нам історію
© Future US, Inc. Повний 7-й поверх, 130 West 42nd Street, Нью-Йорк, штат Нью-Йорк, 10036.
var dfp_config = { “site_platform”: “vanilla”, “keywords”: “тип-новини-щоденно,serversidehawk,відеоартикл,van-enable-adviser-