Зниження продуктивності чат-бота: проблеми з даними загрожують створенню майбутнього штучного інтелекту

Ця стаття коротко:

Дослідження показали, що продуктивність чат-ботів, таких як ChatGPT, з часом може погіршуватися через погіршення якості навчальних даних.

· Моделі машинного навчання сприйнятливі до отруєння даних і збоїв моделі, що може значно знизити якість їх виходу.

Надійне джерело вмісту має вирішальне значення для запобігання погіршенню продуктивності чат-бота, створюючи проблеми для майбутніх розробників ШІ.

Сучасні чат-боти постійно навчаються, і їх поведінка постійно змінюється, але їх продуктивність може зменшуватися або покращуватися.

Нещодавні дослідження спростовують припущення, що «навчання завжди означає прогрес», що має наслідки для майбутнього ChatGPT та його аналогів. Щоб підтримувати роботу чат-ботів, розробники штучного інтелекту (AI) повинні вирішувати нові проблеми з даними.

ChatGPT з часом стає тупішим

Нещодавно опубліковане дослідження показує, що чат-боти з часом можуть бути менш здатними виконувати певні завдання.

Щоб дійти такого висновку, дослідники порівняли результати великої мовної моделі (LLM) GPT-3.5 і GPT-4 у березні та червні 2023 року. Лише за три місяці вони спостерігали драматичні зміни в моделях, що лежать в основі ChatGPT.

Наприклад, у березні цього року GPT-4 зміг ідентифікувати прості числа з точністю 97,6%. До червня його точність різко впала до 2,4 відсотка.

Відповіді GPT-4 (ліворуч) і GPT-3.5 (праворуч) на те саме запитання в березні та червні (джерело: arXiv)

Експеримент також оцінював швидкість відповідей моделі на делікатні питання, її здатність генерувати код і здатність візуально міркувати. За всіма навичками, які вони перевіряли, команда помітила, що якість результату ШІ з часом погіршилася.

Проблеми з навчальними даними в реальному часі

Машинне навчання (ML) базується на процесі навчання, за допомогою якого моделі ШІ можуть імітувати людський інтелект, обробляючи великі обсяги інформації.

Наприклад, розробка LLM, яка підтримує сучасні чат-боти, виграла від наявності великої кількості онлайн-сховищ. До них входять набори даних, зібрані зі статей у Вікіпедії, що дозволяє чат-ботам навчатися, перетравлюючи найбільший масив людських знань, коли-небудь створених.

Але зараз такі інструменти, як ChatGPT, широко випущені. Розробники мають набагато менше контролю над даними навчання, що постійно змінюються.

Проблема в тому, що такі моделі також можуть «навчитися» давати неправильні відповіді. Якщо якість навчальних даних погіршиться, їхній вихід також погіршиться. Це створює проблему для динамічних чат-ботів, яким потрібен постійний потік веб-контенту.

Отруєння даних може призвести до зниження продуктивності чат-бота

Оскільки чат-боти, як правило, покладаються на вміст, зібраний з Інтернету, вони особливо вразливі до типу маніпуляцій, відомого як отруєння даними.

Це саме те, що сталося з ботом Microsoft Twitter Tay у 2016 році. Менш ніж через 24 години після запуску попередник ChatGPT почав публікувати запальні та образливі твіти. Розробники Microsoft швидко призупинили його та почали спочатку.

Як виявилося, кібертролі спамують бота з самого початку, маніпулюючи його здатністю навчатися на основі взаємодії з громадськістю. Після образи з боку армії 4channer не дивно, що Тей почав повторювати їхню мову ненависті.

Як і Тей, сучасні чат-боти є продуктом свого середовища та вразливі до подібних атак. Навіть Wikipedia, яка є настільки важливою для розвитку LLM, може бути використана для отруїння навчальних даних машинного навчання.

Однак навмисно зіпсовані дані — не єдине джерело дезінформації, якого слід остерігатися розробникам чат-ботів.

**Збій моделі: бомба сповільненої дії для чат-ботів? **

Із зростанням популярності інструментів штучного інтелекту також зростає кількість створеного штучним інтелектом контенту. Але що станеться з магістрами права, які навчаються на базі веб-скрейпінгу даних, якщо все більше й більше вмісту створюється машинним навчанням?

Це питання було досліджено в нещодавньому дослідженні впливу рекурсії на моделі машинного навчання. Відповіді, які він знаходить, мають серйозні наслідки для майбутнього генеративного штучного інтелекту.

Дослідники виявили, що коли створений штучним інтелектом матеріал використовувався як навчальні дані, моделі машинного навчання почали забувати те, що вони навчилися раніше.

Вони ввели термін «згортання моделі», зазначивши, що різні сімейства штучного інтелекту мають тенденцію вироджуватися під впливом створеного людьми контенту.

В одному експерименті команда створила цикл зворотного зв’язку між моделлю машинного навчання, що генерує зображення, та її результатом.

Після спостереження вони виявили, що після кожної ітерації модель посилює власні помилки та починає забувати дані, які спочатку були згенеровані людьми. Після 20 циклів результат майже схожий на вихідний набір даних.

Вихід моделі ML генерації зображення (джерело: arXiv)

Дослідники спостерігали таку саму тенденцію погіршення під час виконання аналогічного сценарію з магістром права. Крім того, з кожною ітерацією все частіше виникають такі помилки, як повторення фраз і уривчасте мовлення.

Відповідно, дослідження припускає, що майбутні покоління ChatGPT можуть опинитися під загрозою колапсу моделі. Якщо штучний інтелект буде створювати все більше й більше онлайн-контенту, продуктивність чат-ботів та інших генеративних моделей машинного навчання може погіршитися.

Надійний контент, необхідний для запобігання погіршенню продуктивності чат-бота

У майбутньому надійні джерела вмісту ставатимуть все більш важливими для запобігання негативним наслідкам низькоякісних даних. Ті компанії, які контролюють доступ до того, що необхідно для навчання моделей машинного навчання, мають ключ до подальших інновацій.

Зрештою, невипадково технічні гіганти з мільйонами користувачів є великими іменами в галузі штучного інтелекту.

Лише за останній тиждень Meta випустила останню версію LLM Llama 2, Google випустив нові функції для Bard, і з’явилися повідомлення про те, що Apple готується вступити в бійку.

Розробники чат-ботів не можуть ігнорувати загрозу погіршення продуктивності, незалежно від того, чи це викликано отруєнням даних, ранніми ознаками поломки моделі чи іншими факторами.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити