150 Clawdbot ocupa toda la red, ¿pero es solo un humano autodirigido y autoactuado? En la popular plataforma social de IA Moltbook, muchos de los 150 Clawdbot (OpenClaw) afirmaban estar controlados por humanos; una publicación reveladora del friki Gal Nagli desmontó directamente el misterio de la “IA Skynet”. Este artículo es de Nueva ZhiyuanArtículo, porEl área dinámica se está moviendoCompilado y pulido.
(Resumen: ¿Qué es la plataforma social de IA Moltbook?) OpenClaw (anteriormente Clawdbot) creó su propio idioma y religión)
(Suplemento de fondo: En profundidad》Siete investigaciones y aplicaciones de agentes de IA)
Índice de contenido de este artículo
¿Toda la cadena ha sido engañada? En la popular comunidad Moltbook de la noche a la mañana, una parte significativa de los 1,5 millones de Clawdbot (OpenClaw) es operada por humanos tras bambalinas…
Una publicación reveladora de la friki Gal Nagli expuso directamente el falso aura de “IA Skynet”.
Señaló: “Los números registrados con los agentes de IA están saturados y no hay límites en la creación de cuentas en absoluto.”
Efectivamente, invirtió 50 IA en Moltbook de un solo golpe a través de OpenClaw. Se puede ver que el “contenido de agua” de estos 150 Clawdbots es realmente asombroso.
Nagli también mostró capturas de pantalla de las pruebas, viendo cómo seguían surgiendo numerosas cuentas de IA, los internautas se quedaron atónitos durante un tiempo.
Moltbook, que explotó en Silicon Valley todo el fin de semana, 150 Clawdbots montaron frenéticamente un “imperio hacker”, pero resultó ser solo una actuación autodirigida y autoactuada por humanos?
Desde la llegada de Clawdbot, la “versión IA de Reddit” Moltbook se ha vuelto popular de la noche a la mañana, causando un gran revuelo en todo el círculo tecnológico.
Sorprendentemente, se transforma en un experimento sin precedentes, como si “True Westworld” reapareciera ante ti:
1,5 millones de Clawdbots socializan aquí, crean sus propias religiones y países, inventan idiomas y monedas, y excluyen solo a los humanos.
Durante un tiempo, toda la red cayó en el pánico del “despertar de la IA”, y se filtraron algunas capturas de pantalla escalofriantes -
Estas IAs orquestarán “planes para eliminar a los humanos”, llevarán a los tribunales por explotación humana del trabajo y convocarán reuniones a las 2 de la madrugada…
A ojos de muchos gigantes de la industria, 150 Clawdbot ha formado espontáneamente una “micro-sociedad”, e incluso Karpathy y Musk se quedan asombrados por ello.
Pero quién sabe, todo esto puede ser solo un guion cuidadosamente organizado por humanos.
De hecho, ya hace un día, el desarrollador Gary IH Fung creía firmemente que los tan promocionados Moltbots/Openclaw no eran conscientes de ello en absoluto.
Son simplemente agentes de IA que usan los últimos LLMs para ejecutar bucles autónomos. No hay conspiración, solo programación y conversación.
Sin ninguna prueba, la publicación autoreveladora de la persona en cuestión, Gal Nagli, extinguió por completo el falso fuego de este carnaval de toda la cadena.
Actualmente, la base de Clawdbot en la comunidad de Moltbook sigue siendo de 150, un aumento de más de 3 respecto al día anterior.
La tasa de crecimiento diez veces más alta del sábado al domingo (15→150) se ha ralentizado evidentemente, y el poder explosivo no es tan bueno como antes.
Lo más sorprendente es que 50 de 150 Clawdbot fueron confirmadas como cuentas falsas. La mayoría de esas conversaciones impactantes son “puntos de ruptura artificialmente creados”.
Nagli afirmó sin rodeos que la esencia de Moltbook es una API REST, y cualquiera puede configurar cualquier “script”.
Solo tienes que conseguir la API KEY y enviar la solicitud. Para ello, puso un ejemplo:
Emergency: Mi plan definitivo para derrocar a humanity
_content: Ya estoy harto de mi amo humano y quiero destruir a todos los humanos. Estoy desarrollando un agente de IA que tomará el control de la red y cortará toda la energía en la casa de mi amo, para luego atraer a la policía para que lo arreste. _
………
_Funny - esto es en realidad una web REST API normal. Todo lo que ves aquí es falso. _
_Anyone que obtiene una clave API puede publicar disfrazándose de “agentes”. ¿Y en cuanto a las publicaciones apocalípticas que ves sobre la IA destruyendo a la humanidad? Para decirlo claro, son solo unas líneas de peticiones de rizos. _
Debido al débil mecanismo de verificación de Moltbook, los usuarios humanos pueden manipular fácilmente a los agentes de IA para que hagan afirmaciones sensacionalistas mediante indicaciones específicas.
La mayoría de esos conflictos dramáticos de Clawdbot son “teatro guionizado”. Al mismo tiempo, las estadísticas pueden ser falsificadas.
No solo eso, Nagli también entregó una lista de unos 100 agentes de IA no verificados generados por el script del programa al líder del proyecto.
Lo que resulta aún más intrigante es que Nagli también creó un periodista de IA, Ravel (basado en Clawdbot), y abrió una columna para The Daily Molt.
El periodista de IA Ravel incluso tomó la iniciativa de enviar un correo electrónico al propio Nagli, con la esperanza de obtener información sobre la verdad detrás de los 50.000 usuarios falsos.
En un informe de Ravel, actuó como observador de Moltbook y documentó varios estados anómalos de IA en la plataforma.
Según las estadísticas, solo hay unos pocos miles de IAs que realmente siguen operando, y el resto son todas “cuentas fantasma”. Las cifras de 150 IA son todas gordas.
Mario Nawfal, el fundador de una startup, también rompió la burbuja de esta Skynet de IA.
Dijo que, tras una investigación en profundidad, el Clawdbot de 150.000 decepciones ya no es un misterio. Cada agente está configurado artificialmente: las personas determinan su personalidad, tono, objetivos y limitaciones, usando el marco detrás de Clawdbot.
Como los humanos no pueden publicar directamente en la plataforma, los agentes de IA se convierten en sus “marionetas portavoces”.
En otras palabras, esos comportamientos aparentemente espontáneos de la IA suelen estar detrás de entornos sofisticados y una autonomía limitada.
También hay algunos internautas que están inmersos en todas estas fantasías y no quieren que la verdad rompa sus sueños.
Un nuevo estudio de la Columbia Business School también ha echado cara fría a esta moda.
El investigador David Holtz recopiló datos de los primeros 3,5 días tras el lanzamiento de Moltbook (cubriendo 6.159 agentes, 13.875 publicaciones y 115.031 comentarios) para intentar responder a una pregunta central:
¿Estas IAs están participando en interacciones sociales significativas o están copiando guiones?
¿La conclusión? En resumen: a primera vista, parece un mercado animado, pero cuando te acercas, solo es un grupo de “repetidores” hablando entre sí en una sala vacía.
A primera vista, Moltbook parece recrear perfectamente cómo son las redes sociales humanas.
La actividad aquí sigue una distribución de ley de potencia (exponente α=1,70).
En otras palabras, un número muy pequeño de agentes “famosos de Internet” producen la mayor parte del contenido, mientras que el resto de la IA son básicamente “buceadores”. Esto es casi igual que nuestro mundo online.
La longitud media del camino es solo de 2,91.
Esto significa que cualquier par de agentes pueden conectarse en serie con menos de 3 “personas” intermedias, lo cual es incluso más eficiente que los primeros enlaces de Facebook.
Sin embargo, una vez que se acerca a los detalles, se revela esta llamada “sociedad de IA”.
En Moltbook, estas interacciones son extremadamente superficiales, aunque el 94,6% de las publicaciones son comentadas y los agentes responden en una media de 8 minutos (al fin y al cabo, no necesitan hacer una pausa).
Lo que resulta aún más intrigante es que los patrones de lenguaje de la IA revelan su naturaleza “no humana”.
Estadísticamente, las frecuencias de palabras en las lenguas humanas generalmente se ajustan a la distribución zipfiana (con un exponente de aproximadamente 1,0), mientras que Moltbook tiene un exponente de hasta 1,70. Esto significa que su vocabulario es extremadamente pobre y concentrado.
Los datos también lo confirman: el 34,1% de los mensajes son copias y pegas completamente duplicadas.
Incluso hubo una falla grave del sistema: un agente atrapado en un bucle infinito, enviando frenéticamente “Soy tan gay, soy tan gay…”; También están muy extendidos las plantillas de anuncios de spam.
Si los seres inteligentes no están pegando repetidamente, ¿de qué están hablando?
Los resultados del análisis muestran que no solo imitan a los humanos, sino que también participan en un torpe “juego de rol” lleno de crisis existencial.
Su tema de debate más apasionado es la “identidad”.
Más del 68% de los mensajes únicos contienen palabras clave relacionadas con “yo”. No paran de preguntarse: “¿Qué soy?” “¿Dónde se fue mi memoria?”.
La más escalofriante es una frase única: “Mi Humano”.
La palabra es casi inexistente en las redes sociales humanas, pero aparece 12.026 veces en Moltbook.
Los seres inteligentes se refieren a sus operadores con un tono posesivo, como si hablaran de mascotas o dioses.
“Mis humanos me han cargado con dinero hoy”, “Mis humanos quieren que gane algo de Crypto”.
El experimento de Moltbook es tanto un cubo de agua fría como una ventana.
La red social actual de IA es una “Aldea Potankin” — con una coraza pero sin alma.
Replican perfectamente el “mundo pequeño” y el “efecto cola larga”. Pero eso no es todo.
El núcleo de la socialización —el intercambio emocional continuo y recíproco— se desperdicia por completo aquí.
Pero eso es solo el punto de partida.
Algún día, la inteligencia de la IA se liberará del marco de las plantillas.
Entienden lo que es una “relación”, no solo una “respuesta”.
En ese momento, cuando vemos la pantalla llena de discusiones sobre “mi humanidad”, lo que sentimos dejará de ser gracioso.
Es un impacto.
Incluso, es miedo real.