Марк Цукерберг анонсує нову широкомовну модель ШІ «LLaMA» від Meta

У призначеній для користувача грі зі штучним інтелектом з’явився новий претендент. Марка Цукерберга Мета офіційно вступив у боротьбу з великомовною моделлю ШІ, чарівно відомою як "LLaMA".

На папері LLaMA, здається, не позиціонується як прямий конкурент ChatGPT, Розмовний AI від Microsoft, або власні Google розмовний алгоритм, Бард. Згідно з прес-релізом Meta, компанія прогнозує, що головна роль LLaMA полягатиме в якості ШІ, який покращує ШІ. За словами Мети, LLaMA «вимагає набагато менше обчислювальної потужності та ресурсів для тестування нових підходів, перевірки роботи інших, і досліджуйте нові випадки використання". завдання.

Це відкриває нове поле для розвитку штучного інтелекту, принаймні з точки зору інструментів, орієнтованих на клієнтів. Більшість зручних штучних інтелектів на сьогоднішній день наслідували модель помічника в чаті, для якої потрібен достатньо потужний штучний інтелект, щоб відповісти на будь-яке запитання, яке йому задає користувач. LLaMA має на меті полегшити це для інших ШІ, не загострюючи саму проблему.

Примітним у прес-релізі Meta є явна згадка про обмеження LLaMA та запобіжні заходи, які Meta використовувала при його розробці. Meta пропонує конкретні випадки використання, зазначаючи, що малі моделі, навчені на великих мовних базах, як-от LLaMA, «простіші». для перенавчання та точного налаштування для конкретних потенційних випадків використання продукту". Це значно звужує поле для ШІ програми.

Крім того, Meta обмежить доступність LLaMA, принаймні спочатку, для «академічних дослідників; ті, хто пов’язаний з організаціями в уряді, громадянському суспільстві та наукових колах; і галузевих дослідницьких лабораторій по всьому світу». Компанія чітко усвідомлює потенційні етичні наслідки ШІ серйозно, визнаючи, що LLaMA та весь ШІ поділяють «ризики упередженості, токсичних коментарів і галюцинацій» у своїх операція. Meta намагається протидіяти цьому, ретельно відбираючи користувачів, надаючи їхній код доступним у повному обсязі для всіх користувачів перевірити наявність помилок і упереджень, а також випустити набір корисних тестів для оцінки несправності.

Коротше кажучи, якщо Мета, здається, запізнився до Школи штучного інтелекту, принаймні вони зробили читання. З ростом користувачів все більше тривожиться щодо потенційної темної сторони штучного інтелекту, Meta цілком може моделювати відповідну реакцію: прогрес, стриманий належною обачністю, що гарантує етичне використання.