'Obscene': Grammarlys neues KI-Tool bietet Schreibfeedback von verstorbenen Gelehrten

Decrypt

Kurzfassung

  • Grammarlys „Expert Review“-Funktion gibt KI-Schreibfeedback, das durch benannte Experten gerahmt ist.
  • Akademiker sagen, dass das System Wissenschaftler einschließt, die bereits verstorben sind, was gemischte Reaktionen bei den Nutzern hervorruft.
  • Kritiker fragen, ob das Unternehmen die Identitäten der Wissenschaftler ohne Zustimmung verwenden darf.

Grammarlys neue KI-Funktion, die Schreibfeedback aus der angeblichen Perspektive bekannter „Experten“ bietet, stößt bei Akademikern auf Kritik, die sagen, das Tool „erwecke“ Wissenschaftler wieder zum Leben, um die Arbeiten der Nutzer zu bewerten. Das Feature, genannt Expert Review, analysiert Texte und generiert Feedback, das durch die Perspektive bestimmter Wissenschaftler, Journalisten und anderer Spezialisten gerahmt ist. Viele der Experten, die die KI nachahmt, sind nicht mehr am Leben – eine Eigenschaft, die ein mittelalterlicher Historiker auf BlueSky als „makaber“ bezeichnete. Ursprünglich 2009 als KI-gestütztes Schreib- und Grammatiktool gestartet, wurde Grammarlys Muttergesellschaft im Oktober in Superhuman umbenannt, um den Wandel von einem einzelnen Schreibassistenten zu einer Suite von KI-Produktivitätsagenten widerzuspiegeln, darunter Tools für Recherche, Terminplanung, E-Mail und Workflow-Automatisierung.

Grammarly führte die Expert Review-Funktion im letzten Sommer ein. Über die Grammarly-Browsererweiterung können Nutzer, die sich für die Superhuman Go-Version entscheiden, einen Experten auswählen und KI-generiertes Feedback basierend auf dem Fachgebiet oder den veröffentlichten Arbeiten dieses Wissenschaftlers erhalten.  „Unser Expert Review-Agent prüft die Arbeit eines Nutzers, egal ob es sich um eine Marketing-Briefing oder ein Studentenprojekt zur Biodiversität handelt, und nutzt unser zugrunde liegendes LLM, um Experteninhalte zu präsentieren, die dem Verfasser helfen können, sein Werk zu gestalten“, sagte ein Sprecher von Superhuman gegenüber Decrypt. „Die vorgeschlagenen Experten hängen vom Inhalt des zu bewertenden Textes ab.“ Der Sprecher erklärte, dass der Expert Review-Agent keine Zustimmung oder direkte Beteiligung der genannten Experten beansprucht, sondern „Vorschläge inspiriert von den Arbeiten von Experten“ bietet und Nutzer auf einflussreiche Stimmen hinweist, deren wissenschaftliche Arbeiten sie dann vertiefen können.

„Die Experten in Expert Review erscheinen, weil ihre veröffentlichten Werke öffentlich zugänglich und weit zitiert sind“, sagten sie. Bei einem Test der Funktion für diesen Artikel schlugen die vom App vorgeschlagenen Experten vor, Margaret Sullivan, Medienkolumnistin und ehemalige Redakteurin der New York Times, Jack Shafer, ehemaliger leitender Medienautor bei Politico, und Lawrence Lessig, Professor an der Harvard Law School, vor. Weitere Optionen waren KI-Ethikforscherin Timnit Gebru und Helen Nissenbaum, Professorin für Information Science an der Cornell Tech. Während die Funktion darauf abzielt, Studierenden und Fachleuten beim Verbessern ihrer Schreibfähigkeiten zu helfen, hinterfragte Vanessa Heggie, Professorin für Geschichte an der University of Birmingham, ob die „Gutachter“ ihre Zustimmung gegeben haben, bevor das Unternehmen sie in der App verwendet. „Ich weiß nicht, wo ich anfangen soll, aber… Grammarly bietet jetzt ‚Expertenreviews‘ deiner Arbeit durch lebende und verstorbene Akademiker an“, schrieb Heggie auf LinkedIn. „Ja, verstorbene – ohne ausdrückliche Erlaubnis erstellen sie kleine LLMs basierend auf ihren gescrapten Arbeiten und verwenden ihre Namen und ihren Ruf. Obszön.“ Brielle Harbin, ehemalige außerordentliche Professorin für Politikwissenschaft an der United States Naval Academy, nannte es „eine seltsame und beunruhigende Entwicklung“. „Solche Entscheidungen – vor allem wenn sie ohne Kontext, Zustimmung oder eine bedeutungsvolle Partnerschaft mit Bildungseinrichtungen getroffen werden – riskieren, das Misstrauen gegenüber KI-Tools im Hochschulbereich zu vertiefen“, schrieb sie auf LinkedIn. „Ironischerweise könnten Entscheidungen, die die Akzeptanz beschleunigen sollen, stattdessen den Widerstand verstärken. Vertrauen und Zusammenarbeit sind jetzt sehr wichtig.“ Grammarly ist nur eines von mehreren Unternehmen, die KI-Programme entwickeln, um echte Menschen nachzuahmen. 2023 veröffentlichte Meta eine Reihe von Chatbots für seine Meta AI-Plattform, die auf Prominenten-Identitäten basieren, darunter Snoop Dogg, Tom Brady, Kendall Jenner und Naomi Osaka. Im selben Jahr startete die Khan Academy ihren KI-Tutor Khanmigo, der es Schülern ermöglicht, Gespräche mit historischen Persönlichkeiten zu simulieren, darunter der britische Premierminister Winston Churchill und die US-Bürgerkriegs-Spionin und Underground Railroad-Führerin Harriet Tubman.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare