Grammarly запустила «Expert Review» з імітацією академічних коментарів за допомогою ШІ, що викликало дискусії щодо несанкціонованого використання імен та академічної етики.
Інструменти штучного інтелекту продовжують проникати у сферу писемності та досліджень, але нова функція «імітація академічних коментарів» викликала гострі обговорення щодо етики та дозволів. Відомий інструмент Grammarly нещодавно представив функцію «Expert Review», яка дозволяє користувачам під час написання документів отримувати рекомендації та коментарі, імітуючи погляди конкретних учених або критиків за допомогою ШІ.
Ця функція аналізує текст, що створює користувач, і автоматично рекомендує відповідних «експертів» на основі теми, генеруючи коментарі за допомогою великих мовних моделей. Наприклад:
Grammarly заявляє, що ця функція не є справжнім рецензуванням цими експертами, а базується на їх публікаціях і дослідженнях, натхненних їх ідеями. Компанія підкреслює, що система автоматично підбирає впливових учених або критиків за темою і пропонує користувачам ознайомитися з їхніми роботами.
Однак цей підхід викликав сильну критику в академічній спільноті, зокрема, багато вчених виявили, що їхні імена використовуються для ролей у ШІ-коментарях без їхнього дозволу або співпраці.
Найбільш спірним у цій критиці є те, що ШІ може імітувати стиль коментарів вже померлих учених. Деякі дослідники вважають, що це фактично «воскресіння учених» за допомогою ШІ, що використовує їхні імена для оцінки текстів.
Професор історії з університету Бірмінгема Vanessa Heggie на LinkedIn відкрито критикує цю функцію, зазначаючи, що Grammarly використовує дослідження учених для тренування мовних моделей і використовує їх імена та репутацію для ролей у ШІ-коментарях. Вона ставить під сумнів, чи давали ці вчені дозвіл на використання їхніх робіт для тренування моделей або погоджувалися виступати у ролі «ШІ-експертів».
Heggie зазначає, що багато учених, навіть померлих, використовуються як ролі у ШІ. Вона вважає, що несанкціоноване використання їхніх досліджень і репутації для створення моделей є неприйнятним.
Інший дослідник, колишній доцент політичних наук ВМС США Brielle Harbin, також висловила занепокоєння. Вона зазначає, що без будь-яких пояснень, дозволів або співпраці компанії створюють моделі коментарів під іменами учених, що може посилити недовіру до ШІ в освітній сфері.
Brielle Harbin вважає, що наразі вищі навчальні заклади залишаються обережними щодо впровадження ШІ. Якщо технологічні компанії ігноруватимуть етичні питання та співпрацю з академічною спільнотою, це може призвести до ще більшого спротиву.
Заснована у 2009 році, Grammarly спочатку позиціонувалася як інструмент для граматичної та стилістичної допомоги за допомогою ШІ. Однак із швидким розвитком генеративних моделей штучного інтелекту компанія поступово перетворює свій продукт із простого помічника для писання у багатофункціональну платформу підвищення продуктивності. У жовтні 2025 року материнська компанія Grammarly оголосила про ребрендинг у «Superhuman», що символізує перехід від просто інструменту перевірки граматики до цілого ряду AI-агентів для роботи.
Зараз у портфоліо компанії з’явилися різноманітні застосунки, включаючи допомогу у дослідженнях, написанні електронних листів, управлінні графіком та автоматизації робочих процесів. «Expert Review» — один із нових AI-агентів у цій лінійці. У офіційних поясненнях Grammarly зазначає, що ця функція допомагає студентам, дослідникам і професіоналам покращувати якість їхніх робіт. Наприклад, при створенні маркетингових пропозицій, академічних звітів або бізнес-документів система аналізує текст і пропонує коментарі, імітуючи думки експертів.
Компанія підкреслює, що ця функція не стверджує, що ці експерти справді брали участь у рецензуванні, і не є підтвердженням їхньої підтримки змісту, а базується на аналізі досліджень і публікацій учених.
Проте, така «імітація поглядів експертів» все ще викликає критику за можливе введення користувачів в оману, створюючи враження, що ці коментарі безпосередньо пов’язані з конкретними фахівцями.
Grammarly не є єдиною компанією, яка намагається імітувати знаменитостей або учених за допомогою ШІ. У останні роки багато технологічних компаній випустили подібні продукти, прагнучи підвищити інтерактивність за рахунок відомих образів.
У 2023 році Meta запустила серію чат-ботів із зірками, включаючи репера Snoop Dogg, гравця NFL Tom Brady, модель Kendall Jenner і тенісистку Naomi Osaka. Ці AI-образи взаємодіють у стилі та тону, що нагадують реальних знаменитостей, залучаючи користувачів до спілкування.
Зображення: Meta запустила серію знаменитих чат-ботів у своїй платформі Meta AI
Освітні платформи також використовують подібний підхід. Онлайн-освітня платформа Khan Academy створила AI-асистента «Khanmigo», який дозволяє студентам вести рольові діалоги з історичними персонажами. Наприклад, учні можуть симулювати спілкування з колишнім прем’єр-міністром Великої Британії Вінстоном Черчиллем або лідером підпільної залізниці Гаррієт Тубман, щоб краще зрозуміти історичний контекст і ідеї.
Однак із посиленням здатності моделей імітувати стиль окремих особистостей, зростає й дискусія щодо дозволів і прав на особистість. Деякі експерти вважають, що коли ШІ виступає від імені учених, письменників або знаменитостей, це може впливати на сприйняття їхніх поглядів громадськістю. Вчені наголошують, що у майбутньому компанії, які використовуватимуть ідеї та образи учених або знаменитостей, повинні мати чіткі механізми дозволів і прозорості. Інакше навіть «натхнення» може спричинити порушення репутації, інтелектуальної власності або етики досліджень.