LA INTELIGENCIA ARTIFICIAL NO ES INTELIGENTE

Imita… y a veces ni eso


📅 14 de Mayo del 2025 | ✍ Por Gerardo Castro


Hoy todos hablan —y usan— lo que llaman “inteligencia artificial”. Pero detengámonos un momento: ¿eso que vemos en chats, imágenes o asistentes realmente es inteligencia?

Es muy importante entender que, por muy impresionantes que parezcan sus respuestas, la IA no razona, no entiende lo que dice, ni mucho menos piensa. Lo que hace es repetir patrones estadísticos que aprendió de millones de textos. Nada más.


No tiene ideas propias. No tiene conciencia. Y, lo más básico: no tiene sentido común.

Como psicólogo, puedo decirlo directamente: eso no es inteligencia. Es imitación. Y aunque claro que es útil, muchas veces, ni siquiera esa imitación es buena.


La base de toda inteligencia es el sentido común

Sin siquiera entrar a temas más complejos como la creatividad, el pensamiento o el lenguaje, hay algo mucho más básico que analizar: el sentido común.

Es lo que nos permite entender lo obvio, anticipar lo que puede pasar y movernos con lógica en el mundo.
Sin sentido común, no hay inteligencia real.

Y aquí está el problema: la IA no tiene cuerpo, no tiene experiencias, no ha vivido nada.
Nunca ha sentido calor, ni hambre, ni ha aprendido que el fuego quema.
No puede razonar como nosotros porque nunca ha vivido como nosotros


¿Entonces por qué parece tan inteligente?

Porque está diseñada para parecer inteligente, no para serlo.
La IA simplemente usa miles de ejemplos humanos y los recombina.
No comprende lo que dice, pero imita muy bien el estilo, el tono y la estructura del lenguaje humano.
Es una simulación brillante... pero simulación al fin.²


El caso del ajedrez: cálculo sin comprensión

En 1997, Deep Blue (IBM) venció a Garry Kasparov y se convirtió en la primera IA en derrotar a un campeón mundial en un duelo oficial. Hoy, ninguna persona puede ganarle a una IA de alto nivel en ajedrez. Su capacidad de cálculo parece invencible.

Pero en un experimento,  de Ernest Davis³, se le pidió a una IA jugar con un tablero en el que las piezas estaban colocadas en posiciones incorrectas.
¿El resultado? Movimientos absurdos, sin detectar el error.


¿Por qué? Porque no entendía las reglas del juego, solo repetía patrones entrenados. Al enfrentarse a algo nuevo, actuó al azar.


Esto demuestra que, por más poderosa que parezca, la IA aún puede fallar en lo más básico.

La IA no comprende el lenguaje; solo lo simula

Otro punto clave: la IA no entiende el lenguaje, solo lo predice.  Aunque genera frases correctas, no comprende lo que significan.

 Cuando el contexto cambia o la pregunta exige sentido común o experiencia, falla.  ¿Por qué? Porque no hay comprensión real, solo cálculo estadístico.⁴

Conclusión

La inteligencia artificial no piensa ni entiende. Ese es el punto central de este artículo: dejar claro que no se trata de inteligencia humana.

 Comprender esta diferencia es esencial para no sobrevalorar sus capacidades ni caer en la ilusión de que entiende el mundo como nosotros. Porque no lo hace.

Aunque útil, la IA puede ser profundamente limitada… y también peligrosa.

¿Cuáles son esos peligros reales, más allá del alarmismo o la ingenuidad?
Lo exploraremos en la próxima entrega:  “Los riesgos verdaderos de la IA”.


Notas al pie

¹ Héctor Levesque, investigador del MIT, afirma que “los sistemas actuales de IA carecen por completo de sentido común porque no han vivido ni una sola experiencia en el mundo físico”. Para él, sin experiencia no hay comprensión verdadera (Levesque, 2017).

² Yejin Choi y Oren Etzioni explican que los modelos como GPT “parecen sabios, pero solo están rellenando huecos de palabras basados en probabilidades”. Su genialidad está en parecer que saben, no en saber (Choi & Etzioni, 2022).

³ Ernest Davis (2023) demostró que cuando a los modelos se les da un problema fuera de lo común —como una apertura de ajedrez con piezas mal colocadas—, su desempeño cae. No porque el problema sea complejo, sino porque no saben razonar fuera del patrón entrenado.

⁴ Zhu y colaboradores advierten que lo más peligroso de la IA no es lo que puede hacer, sino la ilusión de que comprende. “Muchos creen que hay una mente detrás, cuando solo hay estadística sin conciencia” (Zhu et al., 2020).


Bibliografía 

Choi, Y., & Etzioni, O. (2022). Can Computers Learn Common Sense?. The New Yorker. https://www.newyorker.com/tech/annals-of-technology/can-computers-learn-common-sense

Davis, E. (2023). Benchmarks for Automated Commonsense Reasoning: A Survey. arXiv preprint, arXiv:2302.04752. https://arxiv.org/abs/2302.04752

Levesque, H. J. (2017). Common Sense, the Turing Test, and the Quest for Real AI. MIT Press.

Zhu, Y., Gao, T., Fan, L., Huang, S., Edmonds, M., Liu, H., ... & Zhu, S.-C. (2020). Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike Common Sense. arXiv preprint, arXiv:2004.09044. https://arxiv.org/abs/2004.09044




Gerardo Castro

Couch para el desarrollo personal y organizacional.

📞 Agenda una consultoría aquí: 941813112
🌐 Visita mi web: www.superaloya.com