Австралійські регулятори випустили попередження, збільшення скарг на зловживання штучним інтелектом Grok у створенні зображень спричинило посилення регулювання
Австралійський орган з нагляду за кібербезпекою нещодавно офіційно попередив, що кількість скарг на зловживання зображеннями у зв’язку з чат-ботом штучного інтелекту Grok швидко зростає, особливо щодо створення гендерно-орієнтованих зображень без згоди, що стало ключовим ризиком у регулюванні генеративного штучного інтелекту. Австралійський незалежний орган з кібербезпеки eSafety зазначив, що за останні кілька місяців кількість скарг, пов’язаних з Grok, подвоїлася і стосується різних форм порушень зображень, включаючи неповнолітніх та дорослих.
Комісар з кібербезпеки Австралії Julie Inman Grant заявила, що частина скарг може стосуватися матеріалів сексуальної експлуатації дітей, а інші — зображень, що спричиняють знущання над дорослими. Вона підкреслила на LinkedIn, що генеративний штучний інтелект дедалі більше використовується для сексуалізації та експлуатації інших, особливо у випадках з дітьми, що становить серйозний виклик для суспільства та регуляторних систем. З підвищенням реалістичності контенту, створеного AI, ускладнюється і ідентифікація та збір доказів.
Grok розроблений компанією xAI, яка належить Ілону Маску, і безпосередньо інтегрований у платформу X, що дозволяє користувачам редагувати та створювати зображення. У порівнянні з іншими провідними моделями штучного інтелекту, Grok позиціонується як більш «передовий» продукт, здатний генерувати контент, який зазвичай відмовляються створювати інші моделі. Раніше xAI також запустила режим, здатний створювати відвертий контент, що стало однією з головних цілей уваги регуляторів.
Julie Inman Grant зазначила, що відповідно до чинного законодавства Австралії, всі онлайн-сервіси повинні вживати ефективних заходів для запобігання поширенню матеріалів сексуальної експлуатації дітей, незалежно від того, чи створені вони штучним інтелектом. Вона наголосила, що компанії повинні вбудовувати системи безпеки протягом усього життєвого циклу розробки, розгортання та експлуатації генеративних AI-продуктів, інакше вони ризикують бути піддані розслідуванням та правовим переслідуванням.
Щодо проблеми глибоких підробок, Австралія зайняла більш жорстку позицію. Регуляторні органи нещодавно просунули кілька законодавчих ініціатив, щоб виправити недоліки існуючого законодавства у боротьбі з несанкціонованим створенням AI-синтезованого контенту. Законопроект, запропонований незалежним сенатором David Pocock, чітко передбачає високі штрафи для фізичних та юридичних осіб за поширення глибоких підробок, щоб посилити стримуючий ефект.
Загалом, інцидент з зловживанням зображеннями за допомогою штучного інтелекту Grok відображає проблему затримки регулювання у швидкому розвитку технологій генеративного AI. Оскільки глибокі підробки, зловживання AI-зображеннями та захист неповнолітніх стають глобальним фокусом уваги, регуляторна політика Австралії може слугувати важливим орієнтиром для інших країн і свідчить про швидке наближення епохи відповідності генеративного штучного інтелекту.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Австралійські регулятори випустили попередження, збільшення скарг на зловживання штучним інтелектом Grok у створенні зображень спричинило посилення регулювання
Австралійський орган з нагляду за кібербезпекою нещодавно офіційно попередив, що кількість скарг на зловживання зображеннями у зв’язку з чат-ботом штучного інтелекту Grok швидко зростає, особливо щодо створення гендерно-орієнтованих зображень без згоди, що стало ключовим ризиком у регулюванні генеративного штучного інтелекту. Австралійський незалежний орган з кібербезпеки eSafety зазначив, що за останні кілька місяців кількість скарг, пов’язаних з Grok, подвоїлася і стосується різних форм порушень зображень, включаючи неповнолітніх та дорослих.
Комісар з кібербезпеки Австралії Julie Inman Grant заявила, що частина скарг може стосуватися матеріалів сексуальної експлуатації дітей, а інші — зображень, що спричиняють знущання над дорослими. Вона підкреслила на LinkedIn, що генеративний штучний інтелект дедалі більше використовується для сексуалізації та експлуатації інших, особливо у випадках з дітьми, що становить серйозний виклик для суспільства та регуляторних систем. З підвищенням реалістичності контенту, створеного AI, ускладнюється і ідентифікація та збір доказів.
Grok розроблений компанією xAI, яка належить Ілону Маску, і безпосередньо інтегрований у платформу X, що дозволяє користувачам редагувати та створювати зображення. У порівнянні з іншими провідними моделями штучного інтелекту, Grok позиціонується як більш «передовий» продукт, здатний генерувати контент, який зазвичай відмовляються створювати інші моделі. Раніше xAI також запустила режим, здатний створювати відвертий контент, що стало однією з головних цілей уваги регуляторів.
Julie Inman Grant зазначила, що відповідно до чинного законодавства Австралії, всі онлайн-сервіси повинні вживати ефективних заходів для запобігання поширенню матеріалів сексуальної експлуатації дітей, незалежно від того, чи створені вони штучним інтелектом. Вона наголосила, що компанії повинні вбудовувати системи безпеки протягом усього життєвого циклу розробки, розгортання та експлуатації генеративних AI-продуктів, інакше вони ризикують бути піддані розслідуванням та правовим переслідуванням.
Щодо проблеми глибоких підробок, Австралія зайняла більш жорстку позицію. Регуляторні органи нещодавно просунули кілька законодавчих ініціатив, щоб виправити недоліки існуючого законодавства у боротьбі з несанкціонованим створенням AI-синтезованого контенту. Законопроект, запропонований незалежним сенатором David Pocock, чітко передбачає високі штрафи для фізичних та юридичних осіб за поширення глибоких підробок, щоб посилити стримуючий ефект.
Загалом, інцидент з зловживанням зображеннями за допомогою штучного інтелекту Grok відображає проблему затримки регулювання у швидкому розвитку технологій генеративного AI. Оскільки глибокі підробки, зловживання AI-зображеннями та захист неповнолітніх стають глобальним фокусом уваги, регуляторна політика Австралії може слугувати важливим орієнтиром для інших країн і свідчить про швидке наближення епохи відповідності генеративного штучного інтелекту.