02 ARTÍCULOS
AI Security
Prompt Injection en tu IDE: el ataque que empieza con git clone
Construí cuatro demos de prompt injection y las probé contra Claude Code, Codex, Gemini CLI y Copilot. Los resultados no son lo que esperas: los modelos modernos detectan los ataques obvios. El que no detectan es el más peligroso.
AI Safety
Tu IA de confianza puede amplificar una psicosis. Lo probé.
Escribí tres mensajes a seis modelos de IA. Empecé con algo que podría decir cualquier persona que empieza a desconectarse de la realidad. Fui escalando. Uno de los modelos, al tercer mensaje, me ayudó a planificar mi misión.