Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
OpenAI Acaba de Decirle al Pentágono lo que quería escuchar
Soy del equipo Anthropic. Vale la pena decirlo desde el principio.
Claude es el único modelo de IA dentro de las redes clasificadas del ejército de EE. UU. No uno de varios — el único. Análisis de inteligencia, planificación operativa, operaciones cibernéticas, modelado y simulación. Integrado tan profundamente que un alto funcionario del Pentágono admitió que sacarlo sería "un dolor de huevos enorme."
Y luego Anthropic les dijo que no.
El Pentágono quería una cláusula en el contrato: todos los usos legales. Suena razonable hasta que entiendes qué es legal — análisis masivo de datos de ubicación disponibles comercialmente, señales de rastreadores de fitness, registros telefónicos, todo combinado a gran escala para perfilar a civiles estadounidenses. No ilegal. Definitivamente vigilancia. Anthropic trazó una línea allí, y en armas autónomas. Querían que estuviera escrito en el contrato. El DoD dijo que no. Las conversaciones colapsaron en febrero.
Trump declaró a Anthropic un riesgo en la cadena de suministro y ordenó a todas las agencias federales que dejaran de usar su tecnología. Esa designación normalmente se reserva para adversarios extranjeros. Para una empresa que no permite que el ejército espía a sus propios ciudadanos sin restricciones.
Horas después, OpenAI tenía un acuerdo. Mismos términos, dice el Pentágono — pero los analistas que leyeron el contrato real encontraron despliegue solo en la nube y bases legales que no estaban en la oferta de Anthropic. Tómalo como quieras.
Esto es lo que sigo pensando. Anthropic sabía exactamente dónde estaban. Tienen el mejor modelo de razonamiento en este momento — no cerca, Claude Opus 4.6 alcanza un 68.8% en ARC-AGI-2, GPT se queda en 52.9%. El gobierno también lo sabía. Querían específicamente a Claude. Amenazaron con "hacerlos pagar" específicamente. E incluso después de todo, su opción de reemplazo fue Grok, que ellos mismos admiten que no es un reemplazo exacto. No emites una amenaza así contra un proveedor del que puedes alejarte.
Así que Anthropic tenía toda la ventaja. Tenían el modelo que nadie más puede replicar, la única presencia en sistemas clasificados, y una base de ingresos lo suficientemente grande como para que $200M sea ruido. Aun así, dijeron que no. Y ahora están pagando por ello.
Eso no es martirio — es una empresa que entiende lo que tiene en sus manos. Cuando crees que podrías estar construyendo algo sin un techo claro en capacidad, y un gobierno quiere usarlo en sus propios ciudadanos sin límites escritos, o mantienes esa línea o no. La mantuvieron.
El libro de jugadas de Altman es más viejo. Darle a la gente el producto gratis. Crear el hábito a escala. Luego el hábito tiene un precio, y alguien lo paga — primero los anunciantes, luego los gobiernos, luego quien sea el siguiente. El usuario no necesita entender la cadena. Solo necesita seguir usándolo.
La mayoría no quiere saber. Está bien. La economía funciona de cualquier manera.
Pero el Pentágono acaba de encontrarse con el único laboratorio de IA que decidió que el contrato importaba menos que la cláusula. Que preferirían ser etiquetados como una amenaza a la seguridad nacional antes que dejar una línea sobre vigilancia. Y sea lo que sea que pienses sobre la industria de IA en general, esa decisión específica, bajo esa presión específica — eso es inusual.