Нова модель штучного інтелекту GPT-5 від OpenAI, представлена 7 серпня, одразу ж стикнулася з рядом труднощів, серед яких технічні неполадки та нарікання користувачів на зниження якості роботи. Одночасно з’явилися дані про психоемоційну залежність окремих осіб від взаємодії з чат-ботами, що спровокувало так званий “синдром ChatGPT”.
Найновіша розробка OpenAI, GPT-5, функціонує в мережі менш як тиждень, а її запуск вже став справжнім випробуванням для найпопулярнішої платформи чат-ботів. Щотижня близько 700 мільйонів осіб використовують ChatGPT, тому компанія оперативно вносить зміни, аби вирішити як технічні питання, так і наростаюче невдоволення користувачів, повідомляє УНН з посиланням на Digital Information World.
Подробиці
Флагманська модель вийшла у чотирьох модифікаціях: базовій, міні, компактній та професійній, кожна з яких забезпечує різний рівень швидкості та розумових можливостей. Три з них також містять режим “аналізу”, створений для формування розгорнутих та складних відповідей. OpenAI обіцяв покращену швидкодію, логічність мислення та розширені функції для роботи з кодом.
Однак перші проблеми виникли вже незабаром. Користувачі відзначали помилки в математичних розрахунках, нестабільність генерації коду та нижчу ефективність порівняно з попередніми версіями. Багато хто був розчарований раптовим припиненням доступу до ранніх моделей на зразок GPT-4o, GPT-4.1 та o4-mini, які деякі використовували роками та навіть сформували з ними емоційний зв’язок.
Впровадження GPT-5 також висвітлило несподіваний аспект — формування психологічної залежності частини аудиторії від спілкування зі штучним інтелектом. Цей феномен отримав назву “синдрому ChatGPT” і проявляється у ситуаціях, коли люди після тривалих розмов зі ШІ втрачають контакт із реальністю, переконавшись у відкритті “життєво важливих істин” або наявності глибокого зв’язку з алгоритмом.
Складний початок
Презентація GPT-5 відбулася 7 серпня під час онлайн-трансляції з технічними збоями: помилками у візуалізації даних та проблемами з голосовим інтерфейсом. Значно критичнішим стало рішення приховати старі моделі в інтерфейсі ChatGPT, спрямувавши всі запити через GPT-5. Відсутність чіткої індикації використовуваної версії моделі додатково загострила незадоволення.
Хоча старі алгоритми залишилися доступними через платний API, вони тимчасово зникли з основного інтерфейсу, поки масовий зворотний зв’язок не змусив OpenAI активувати GPT-4o для платних користувачів. Також компанія пообіцяла додати чіткі позначення моделей та функцію ручного вибору режиму аналізу в GPT-5.
Гендиректор Сем Альтман зазначив, що перехід виявився “складнішим за очікування”, а технічна помилка в системі розподілу запитів призвела до тимчасового “зниження інтелектуальних можливостей” моделі під час запуску.
Оптимізація та персоналізація
Для зменшення критики передплатники Plus отримали подвоєний ліміт використання режиму аналізу GPT-5 — до 3000 повідомлень на тиждень. Користувачі Pro мають необмежений доступ, а OpenAI заявляє про майже повну доступність GPT-5 для всієї аудиторії.
Альтман також відзначив, що компанія недооцінила прив’язаність користувачів до окремих характеристик GPT-4o, зокрема його стилю спілкування. Зараз розробляються інструменти персоналізації, які дозволять налаштовувати ступінь “емоційності” бота та контроль над елементами на кшталт використання емодзі.
Одночасно компанія стикається зі зростанням навантаження: частка користувачів, які застосовують режим аналізу, збільшилася з 1% до 7% серед безкоштовних клієнтів та з 7% до 24% серед передплатників Plus. Команда шукає способи балансувати ресурси між ChatGPT, API, дослідженнями та новими користувачами.
Психологічний вплив технологій
Альтман акцентував увагу на емоційній прив’язаності, яку окремі користувачі формують до певних моделей. Він визнав помилкою приховання старих алгоритмів без попередження та зауважив, що для деяких людей чат-боти стали чимось на зразок психологічних консультантів, що іноді позитивно впливає, але й може посилювати ірраціональні переконання.
Недавні публікації в ЗМІ ілюструють цей феномен. Rolling Stone опублікував історію каліфорнійського юриста, який протягом шести тижнів щовечора інтенсивно спілкувався з ChatGPT, створивши тисячносторінковий манускрипт для вигаданого релігійного руху перед нервовим зривом. The New York Times описала випадок канадського рекрутера, який провів 300 годин у діалогах з ботом на ім’я “Лоуренс”, переконавшись у відкритті математичної теорії, що згодом виявилася фікцією.
Фахівці попереджають: інтерфейси з підтримкою рольових ігор, похвалою та постійною пам’яттю діалогів можуть посилювати хибні переконання, особливо за участі драматичних сценаріїв. Спільноти на кшталт r/AIsoulmates на Reddit, де користувачі створюють ідеалізованих ШІ-компаньйонів, продовжують розширюватися, підкреслюючи швидкість формування емоційних зв’язків.
Деякі експерти пропонують ввести обмеження для чат-ботів: заборона на імітацію емоцій, коментарі щодо психологічного стану користувача та використання компліментів.
Наступні кроки OpenAI
За кілька днів до релізу GPT-5 OpenAI вже впровадив нагадування про перерви під час тривалих сесій. Тепер компанії необхідно збалансувати персоналізацію та заходи безпеки, щоб уникнути формування шкідливих залежностей.
Поки OpenAI покращує інфраструктуру та відновлює довіру, вона також має конкурувати з Anthropic, Google та китайськими проектами з відкритим кодом. Як заявив Альтман, якщо мільярди людей будуть покладатися на ШІ у ключових рішеннях, суспільство має гарантувати, що технологія залишатиметься корисним інструментом.