Meta se enfrenta a un juicio en Santa Fe, Nuevo México, que podría derivar en cambios ordenados por un tribunal en la forma en que operan Facebook, Instagram y WhatsApp, según Reuters. El fiscal general Raúl Torrez presentó la demanda acusando a Meta de diseñar sus productos para enganchar a usuarios jóvenes y de no protegerlos de la explotación sexual. Un veredicto de un jurado en marzo halló que Meta violó la ley estatal de protección al consumidor y otorgó 375 millones de dólares en concepto de daños y perjuicios.
Nuevo México planea solicitar daños y remedios adicionales durante el juicio. Las soluciones propuestas por el estado incluyen requisitos de verificación de edad, límites a la reproducción automática y a las funciones de desplazamiento infinito para menores, rechazo de cuentas menores con 99% de precisión, un límite mensual fijo de 90 horas en las plataformas de Meta y el establecimiento de un Child Safety Monitor designado por el tribunal para supervisar la seguridad en línea de los niños, con poder para inspeccionar los sistemas internos de Meta. El estado también quiere que Meta limite el cifrado de extremo a extremo para menores y financie el puesto del Child Safety Monitor durante al menos cinco años.
Meta se ha opuesto a estas exigencias, argumentando que son impracticables y no están respaldadas por evidencia. La empresa ha advertido que los cambios ordenados por el tribunal podrían forzarla a retirarse del estado.
El caso de Nuevo México forma parte de una iniciativa regulatoria más amplia contra las empresas tecnológicas que se centra en el diseño de producto más que solo en el contenido. Un jurado de California sostuvo recientemente a Meta y Google responsables por el daño a una mujer que, de forma compulsiva, usó las aplicaciones de Meta y el YouTube de Google cuando era niña, tratando los servicios como productos defectuosos debido a un diseño presuntamente adictivo. Se espera que este veredicto marque el rumbo de otros casos similares.
El enfoque regulatorio se alinea con normas como la Ley de Servicios Digitales de la Unión Europea, que exige que las grandes plataformas en línea tomen medidas para abordar riesgos sistémicos para los menores, incluidos riesgos derivados de funciones diseñadas para impulsar el uso excesivo como el desplazamiento infinito. Estos casos, en conjunto, buscan responsabilizar a las plataformas por la manera en que se construyen sus productos, además de lo que los usuarios publican en ellos.