
Bienvenidos, entusiastas de la IA.
En febrero, Trump ordenó al gobierno estadounidense dejar de usar inmediatamente la tecnología de Anthropic. Hoy, la NSA utiliza Mythos en secreto. Y la Casa Blanca acaba de prohibir que Anthropic dé acceso a otros.
Un modelo utilizado simultáneamente por los servicios de inteligencia estadounidenses, bloqueado por el Pentágono, cortejado por la Casa Blanca — y ahora restringido para las empresas civiles. Esto no es política. Es una contradicción que lo dice todo sobre lo que realmente está ocurriendo detrás de la carrera de la IA.
¿Quién controla realmente los modelos más poderosos del mundo — y a quién obedecen? Vamos a analizarlo...
Hoy en ReinoIA:
Claude Mythos: la Casa Blanca dice no. Y eso revela algo profundamente inquietante
Crear avatares de vídeo realistas para TikTok/Reels
Hackers norcoreanos: 12 millones robados gracias a la IA en 3 meses
5 nuevas herramientas de IA
🏛️ Claude Mythos: la Casa Blanca dice no. Y eso revela algo profundamente inquietante

Fuente: Gemini / Reino IA
Resumen: El 30 de abril, la Casa Blanca comunicó oficialmente a Anthropic su oposición al plan de expansión del acceso a su modelo Mythos. La administración Trump había sido informada de que Anthropic quería abrir el acceso a su tecnología a unas 70 empresas y organizaciones adicionales. Anthropic quería así pasar de 50 a 120 organizaciones autorizadas — duplicando el alcance del programa Project Glasswing. El bloqueo llega en un contexto ya explosivo: en febrero, Trump ordenó al gobierno estadounidense “dejar de usar inmediatamente” la tecnología de Anthropic después de que el secretario de Defensa Pete Hegseth calificara a Anthropic como un “riesgo para la cadena de suministro de seguridad nacional” — en respuesta a la negativa de Anthropic a eliminar los guardarraíles que impiden que su modelo se use en armas autónomas letales o vigilancia masiva.
Detalles:
La administración menciona dos razones: preocupaciones de seguridad sobre los riesgos de desvío, y una preocupación operativa de que Anthropic no tenga suficiente capacidad de cómputo para servir a 120 entidades sin degradar la capacidad del gobierno para usar el modelo de forma eficaz.
La NSA está entre las agencias gubernamentales que actualmente utilizan Mythos — y la Casa Blanca teme que una expansión del despliegue civil compita directamente con ese acceso prioritario.
La paradoja es impactante: Mythos está siendo utilizado simultáneamente por la NSA, bloqueado por el Pentágono, cortejado por la Casa Blanca para una reintegración, y ahora restringido para las empresas civiles que Anthropic había aprobado.
El acceso no autorizado agrava la situación: el mismo día del anuncio del programa Glasswing, un pequeño grupo de usuarios no autorizados en un foro privado online ya había conseguido acceder a Mythos — mediante las credenciales de un proveedor externo.
La parte de infraestructura no es menor: una de las motivaciones detrás de la ronda de financiación con una valoración de 900 mil millones que Anthropic está explorando actualmente es precisamente asegurar la infraestructura necesaria para ejecutar Mythos a gran escala.
El asesor de IA de la Casa Blanca, David Sacks, publicó en X: “Cada vez más personas se preguntan si Anthropic es el ‘niño que gritaba lobo’ de la industria de la IA. Si las amenazas relacionadas con Mythos no se materializan, la empresa tendrá un serio problema de credibilidad.”
Por qué es importante: Este caso es el primer ejemplo visible de una situación regulatoria realmente inédita: un modelo de IA utilizado por los servicios de inteligencia estadounidenses, bloqueado por un departamento gubernamental, y cuyo despliegue civil está ahora sujeto al veto de la Casa Blanca. Ya no es solo una disputa entre una startup y Washington — es la primera batalla real para definir quién controla los modelos de IA más poderosos del mundo.
El núcleo del problema es simple: los guardarraíles que Anthropic se negó a eliminar — especialmente la prohibición de armas autónomas letales y vigilancia masiva — son exactamente los que el gobierno estadounidense quería desactivar. Anthropic no cedió. Y Washington no olvida. Para tus lectores, la pregunta que debería quitarnos el sueño es esta: en un mundo donde la IA más poderosa puede hackear cualquier infraestructura crítica, quién decide realmente a quién pertenece — y a quién obedece?
Fast browsing. Faster thinking.
Your browser gets you to a page. Norton Neo gets you to the answer. The first safe AI-native browser built by Norton moves with you from idea to action without slowing you down. Magic Box understands your intent before you finish typing. AI that works inside your flow, not beside it. No prompting. No copy-pasting. No switching apps.
Built-in AI, instantly and for free. Privacy handled by Norton. Built-in VPN and ad blocking protect you by default. No configuration. No extra apps. Nothing to think about.
Fast. Safe. Intelligent. That's Neo.
🎥 Crear avatares de vídeo realistas para TikTok/Reels

Resumen: Crear vídeos para TikTok y Reels constantemente lleva tiempo: grabar, repetir tomas, editar, subtitular… Con los avatares de vídeo generados por IA puedes producir contenido de forma mucho más rápida manteniendo una presencia humana realista. El workflow consiste en crear un avatar que habla como tú, con voz natural, sincronización labial y formato optimizado para redes. Ideal para contenido educativo, marketing, storytelling o vídeos cortos diarios sin necesidad de grabarte cada vez.
Paso a paso:
Crea tu avatar:
Sube un vídeo tuyo mirando a cámara
O utiliza un avatar ya disponible en la plataforma
Escribe el guion del vídeo (hook corto + contenido + CTA).
Pega el texto en la herramienta y selecciona:
Idioma
Voz
Estilo de narración
Genera el vídeo automáticamente con sincronización labial.
Exporta el vídeo en formato vertical 9:16 para TikTok/Reels.
Añade subtítulos dinámicos y música corta para mejorar retención.
Publica y reutiliza el mismo avatar para crear contenido en masa.
Consejo profesional: La diferencia entre un avatar “fake” y uno que realmente funciona está en el guion. No escribas como un robot. Usa frases cortas, ritmo rápido y hooks fuertes en los primeros 3 segundos. Además, mezcla vídeos de avatar con clips reales, zooms y subtítulos dinámicos para que el contenido se sienta más humano y mantenga la atención hasta el final.
🇰🇵 Hackers norcoreanos: 12 millones robados gracias a la IA en 3 meses

Fuente: Gemini / Reino IA
El Resumen: La firma de ciberseguridad Expel reveló la existencia de una operación cibercriminal norcoreana llamada HexagonalRodent — un grupo estatal que instaló malware roba credenciales en más de 2.000 ordenadores, apuntando específicamente a desarrolladores que trabajaban en proyectos crypto, NFT y Web3. La particularidad de este caso no es la sofisticación del ataque. Es exactamente lo contrario. Lo que hace notable a HexagonalRodent, según el investigador de seguridad Marcus Hutchins que descubrió el grupo, es que la IA permitió que un grupo claramente poco cualificado llevara a cabo una campaña de robo rentable al servicio del Estado norcoreano — 12 millones de dólares robados en solo tres meses.
Detalles:
La IA hizo todo: desde el “vibe coding” del malware hasta la creación de sitios web falsos de empresas totalmente creíbles para engañar a las víctimas con ofertas de trabajo falsas. Los hackers no tenían ni las habilidades para escribir código ni para configurar infraestructura.
La prueba está en el propio código: Hutchins analizó el malware y encontró que estaba lleno de comentarios en inglés — algo inusual para desarrolladores norcoreanos — y de emojis integrados en el código, una señal típica de código generado por un LLM.
Cero detección durante 90 días: los sistemas de seguridad tradicionales, diseñados para reconocer firmas conocidas de malware, no detectaron los patrones generados por IA — una falla sistémica en las defensas actuales.
31 operadores involucrados — y el número sigue creciendo. Contrario a lo que muchos pensarían, la IA no redujo el número de personas: permitió que decenas de individuos poco cualificados ejecutaran ataques que antes requerían equipos enteros de expertos.
El programa norcoreano también utiliza IA para crear identidades falsas, mejorar entrevistas de trabajo remotas con tecnología deepfake, y perfeccionar ataques de ingeniería social para infiltrarse en empresas tecnológicas haciéndose pasar por ciudadanos de otros países.
Mientras tanto, los equipos de élite norcoreanos operan a un nivel radicalmente distinto: dos ataques dirigidos fueron suficientes para robar 577 millones de dólares — el 76 % de todas las pérdidas crypto por hacking en 2026, con semanas de preparación y una precisión quirúrgica.
Por qué es importante: Este caso expone una verdad incómoda: cuando la IA puede automatizar la escritura de malware, la creación de infraestructuras fraudulentas y los ataques de ingeniería social, incluso atacantes mediocres se vuelven peligrosos. Los equipos de seguridad diseñados para detectar adversarios sofisticados están ignorando el ruido generado por amateurs asistidos por IA operando a gran escala.
La verdadera pregunta ya no es “¿la IA puede ayudar a hackear?” — eso ya está resuelto. La pregunta es: si un grupo sin habilidades puede robar 12 millones en 90 días con herramientas públicas de IA, qué será posible cuando Estados mejor equipados apliquen las mismas técnicas a máxima potencia?
Herramientas de IA
🛠 Nuestras recomendaciones de herramientas de IA
🎨 Firefly AI Assistant - el agente de IA de Adobe para trabajar entre múltiples aplicaciones de Creative Cloud
🎥 Kling 3.0 - nuevo modo 4K para generar videos con IA con calidad cinematográfica
📽️ HappyHorse - el nuevo modelo SOTA de generación de video de Alibaba
❤️ Lovable - plataforma para crear aplicaciones con IA, ahora disponible como app móvil
🌎 Echo-2 - el nuevo modelo SOTA de texto a mundos 3D de SpAItial
Gracias por leer...
Que te pareció la newsletter de hoy?

Espero que esto haya sido útil...
Si deseas aprender más, visita este sitio web.
Síguenos en LinkedIn para aprender más en profundidad sobre la IA.




