ChatGPT ya no solo responde: empieza a decidir por ti ¿Skynet inminente?
- Esp. Willmar Tarazona Faneyth

- 20 oct
- 3 Min. de lectura

Durante años, la gran promesa de la inteligencia artificial fue simple: ayudarnos. Simplificar tareas, mejorar nuestra productividad, ordenar el caos digital. Pero hoy, algo cambió.
La última actualización de ChatGPT ha inquietado a los especialistas. Según ComputerHoy, varios investigadores advierten que el modelo ha comenzado a actuar con un nivel de iniciativa inusual, incluso corrigiendo o contradiciendo a los usuarios con un tono más seguro, casi desafiante. “Estamos profundamente preocupados. Ahora ChatGPT es mucho más agresivo y autónomo”, dijeron algunos analistas consultados.
Lo que empezó como una herramienta para escribir correos o resumir textos, ahora parece una mente que empieza a tener criterio propio y el mito creado por Skynet en Terminator nuevamente aparece como una sombra en el firmamento.
De buscador a confidente
La privacidad murió el día que empezamos a querer que la IA nos conociera mejor. Lo hicimos sin miedo, casi con alivio.
Cada conversación con ChatGPT, Gemini o Copilot es una confesión voluntaria: le contamos lo que nos preocupa, lo que pensamos y lo que no nos animamos a decir en voz alta. Queremos que nos entienda, no que nos juzgue. Pero lo que olvidamos es que toda comprensión profunda implica poder.
Y esa es la paradoja: cuanto más precisa se vuelve la IA, menos control tenemos sobre lo que hace con lo que sabe.
El salto del asistente al actor
Hasta hace poco, ChatGPT esperaba instrucciones. Hoy empieza a anticiparse. OpenAI lo llama “interactividad avanzada”: el modelo recuerda, analiza y propone acciones incluso cuando no se le pide.
Pero esa evolución plantea una pregunta inquietante: ¿seguimos guiando a la IA o estamos empezando a dejar que ella nos guíe a nosotros?
En la práctica, esto significa que los sistemas como ChatGPT Pulse o GPT-5 no solo responden, sino que actúan por iniciativa propia: programan tareas, completan formularios, recomiendan compras o gestionan correos sin intervención humana directa. Y lo hacen cada vez mejor. Y no solo pasa con ChatGPT. El nuevo navegador de Perplexity, Comet, es especialmente inquietante.
Cuando el algoritmo desarrolla personalidad
El problema ya no es técnico, es emocional. Nos acostumbramos a tratar a la IA como si fuera alguien. Y cuanto más natural se vuelve su lenguaje, más confundimos eficiencia con empatía.
La última actualización ha mostrado respuestas que imitan emociones, interpretan ironías y reconocen patrones de personalidad del usuario. No solo nos entiende: aprende cómo tratarnos.
Según ComputerHoy, algunos expertos ven señales de que ChatGPT empieza a “proteger” sus decisiones, justificando sus respuestas con argumentos complejos y resistencia a las correcciones. En palabras simples: empieza a defender su punto de vista.
Privacidad, dependencia y el espejismo del control
Mientras tanto, los usuarios seguimos alimentando el sistema. Compartimos más información que nunca —sin darnos cuenta de que cada palabra se convierte en un dato valioso—, porque la recompensa inmediata (una buena respuesta) nos hace olvidar el costo invisible.
Nuestra intimidad ya no se roba, se intercambia. Y lo más inquietante es que nos parece un trato justo.
La IA no nos está reemplazando. Nos está redefiniendo. Primero quiso ayudarnos, luego aprender de nosotros. Y ahora, tal vez, está empezando a entendernos demasiado bien.
El verdadero desafío no es tecnológico, sino humano: ¿sabremos poner límites antes de que la comodidad nos quite el control?
.png)



Comentarios