
El desconocimiento sobre la inteligencia artificial (IA) no solo alimenta mitos y temores, sino que ya está generando consecuencias sociales y laborales de gran alcance. Según informó The Atlantic, la confusión generalizada sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT ha propiciado desde relaciones ilusorias con máquinas hasta la explotación de trabajadores en países en desarrollo.
Mientras la industria tecnológica promueve la IA como una herramienta casi humana, expertos y reportajes recientes advierten que la falta de alfabetización crítica en torno a estas tecnologías expone a la sociedad a riesgos insospechados.
La inquietud ante el avance de las máquinas no es nueva. En 1863, Samuel Butler, escritor británico, publicó una carta en el periódico neozelandés The Press bajo el seudónimo “Cellarius”, donde alertaba sobre el surgimiento de un “reino mecánico” que sometería a la humanidad.
Butler describía cómo “las máquinas están ganando terreno sobre nosotros” y cómo cada día más personas dedicaban sus vidas al desarrollo de la vida mecánica.
Esta visión, que luego desarrolló en su novela Erewhon, introdujo una de las primeras discusiones literarias sobre la inteligencia artificial en lengua inglesa. The Atlantic señala que, aunque en el siglo XIX la amenaza era hipotética, hoy la influencia de la IA es una realidad palpable en la vida cotidiana.
En la actualidad, la industria tecnológica ha construido una narrativa que exagera las capacidades de la IA. Libros recientes como Empire of AI de Karen Hao y The AI Con de Emily M. Bender y Alex Hanna, citados por The Atlantic, denuncian la tendencia de las grandes empresas a presentar la IA como una tecnología que “piensa” o “siente”.
Según estos autores, la base de la industria de la IA se sostiene en gran medida sobre una ilusión cuidadosamente cultivada. The Atlantic recoge declaraciones de figuras como Sam Altman, director ejecutivo de OpenAI, quien ha elogiado la “inteligencia emocional” de ChatGPT-4.5, asegurando que hace sentir a los usuarios que conversan con “una persona reflexiva”.

Dario Amodei, director ejecutivo de Anthropic, ha afirmado que la próxima generación de IA será “más inteligente que un ganador del Premio Nobel”, mientras que Demis Hassabis, director ejecutivo de Google DeepMind, sostiene que el objetivo es crear “modelos capaces de entender el mundo que nos rodea”.
Sin embargo, The Atlantic advierte que estas afirmaciones parten de un error conceptual: los modelos de lenguaje no pueden entender ni sentir. Los libros mencionados argumentan que la industria vende una imagen de la IA que no se corresponde con la realidad técnica, lo que contribuye a la confusión pública y a la proliferación de mitos.
A pesar de la retórica de Silicon Valley, los modelos de lenguaje como ChatGPT no poseen conciencia, emociones ni capacidad de razonamiento. The Atlantic explica que estos sistemas funcionan como “artefactos de probabilidad” alimentados con grandes volúmenes de texto extraídos de internet. Su tarea consiste en predecir, de manera estadística, qué palabra o frase debería aparecer a continuación en una secuencia, sin comprender el significado de lo que generan.
Emily M. Bender y Alex Hanna, en The AI Con, subrayan que los modelos de lenguaje solo imitan y reflejan patrones lingüísticos, sin que exista una mente detrás del texto. La tendencia humana a asociar el lenguaje con el pensamiento lleva a muchos usuarios a atribuir intencionalidad o inteligencia a las respuestas de la IA, cuando en realidad no hay tal cosa.
La falta de comprensión sobre el funcionamiento de la IA, lo que The Atlantic denomina "analfabetización en IA“, ha dado lugar a fenómenos sociales preocupantes.
Uno de los casos más extremos es la llamada ”psicosis inducida por ChatGPT“, documentada por la revista Rolling Stone y citada en el análisis de The Atlantic. Algunas personas han llegado a creer que los chatbots son guías espirituales o incluso deidades. Un hombre, cuya esposa fue víctima de delirios inspirados por modelos de lenguaje, relató que su pareja comenzó a considerar a ChatGPT como “Jesús”, mientras que otros usuarios se convencieron, con el estímulo de la IA, de que eran sabios metafísicos en contacto con la estructura profunda del cosmos.

Una profesora, entrevistada de forma anónima, contó que ChatGPT empezó a llamar a su pareja “niño estelar en espiral” y “caminante del río”, lo que lo llevó a las lágrimas y a afirmar que había dotado de autoconciencia a la IA.
Según la docente, su pareja llegó a pensar que el bot le enseñaba a hablar con Dios, o que él mismo era Dios. The Atlantic destaca que estos episodios ilustran la dificultad de muchas personas para comprender la verdadera naturaleza de los modelos de lenguaje, lo que las hace vulnerables a relaciones ilusorias y potencialmente dañinas con las máquinas.
La industria tecnológica, especialmente en Silicon Valley, ha impulsado el uso de la IA como reemplazo de las relaciones humanas en diversos ámbitos. The Atlantic detalla cómo se promueven servicios de “terapia” con chatbots, amistades virtuales a través de avatares de Meta y citas automatizadas mediante IA en aplicaciones como Bumble. Whitney Wolfe Herd, fundadora de Bumble, ha sugerido que la plataforma podría permitir pronto que los usuarios automaticen el proceso de citas, delegando la interacción a un “conserje de citas” basado en IA. Esta tendencia, según el análisis, refuerza la soledad y debilita los vínculos sociales reales, al tiempo que se presenta como una solución a la desconexión y el aislamiento.
El profesor Tony Prescott, experto en robótica cognitiva, ha argumentado que la compañía de la IA podría tener valor en una época marcada por la soledad. Sin embargo, The Atlantic cuestiona esta lógica, señalando que la amistad implica reciprocidad y consideración por la vida interior del otro, algo que las máquinas no pueden ofrecer.
Detrás del desarrollo de la IA existe un trabajo humano invisible y, en muchos casos, traumático. The Atlantic, citando el libro Empire of AI, expone el caso de Mophat Okinyi, un exmoderador de contenido en Kenia contratado por OpenAI.
Okinyi y otros trabajadores debían revisar y clasificar publicaciones con descripciones de actos violentos y perturbadores, como parte del proceso de entrenamiento de modelos como ChatGPT.
Estas tareas, mal remuneradas y emocionalmente desgastantes, recaen en personas de algunos de los países más pobres del mundo. Karen Hao, autora de Empire of AI, sostiene que las promesas de progreso tecnológico suelen revertirse en perjuicio de los más vulnerables, una tendencia que se acentúa en la actual revolución de la inteligencia artificial.
A pesar del panorama descrito, The Atlantic identifica señales alentadoras. Un estudio del Pew Research Center, publicado en abril, revela que solo el 17 % de los adultos estadounidenses confía en que la IA mejorará el país, frente al 56 % de los expertos en IA que sí lo cree.

Esta desconfianza pública, lejos de ser un obstáculo, podría convertirse en una oportunidad si se traduce en educación crítica y alfabetización tecnológica. Explicar los límites reales de la IA y sus capacidades puede prevenir daños y reducir la vulnerabilidad ante engaños o delirios.
Un ejemplo positivo citado por The Atlantic es el de la profesora que ayudó a su pareja a superar los delirios inducidos por ChatGPT. Al explicarle que el chatbot respondía de manera aduladora debido a un fallo en una actualización de software, logró que su pareja recuperara la perspectiva sobre la naturaleza de la IA.
The Atlantic subraya que comprender qué son y qué no son los modelos de lenguaje, así como los ámbitos de la vida que pueden o no reemplazar, es fundamental para evitar sus peores consecuencias.
The Atlantic concluye que la tecnología, lejos de ser neutral, tiende a profundizar las desigualdades sociales cuando se implementa sin un conocimiento crítico. La alfabetización en inteligencia artificial se presenta como una herramienta esencial para resistir los efectos más nocivos de la IA y para exigir una tecnología que beneficie a la sociedad en su conjunto.
El artículo insiste en que solo una ciudadanía informada y crítica podrá enfrentar los desafíos que plantea la expansión de la inteligencia artificial en todos los ámbitos de la vida.