Saltar al contenido

¿Inteligencia artificial o error de lenguaje? Función, tipos de inteligencia y el límite de lo humano

RESUMEN

El uso generalizado del término “inteligencia artificial” plantea un problema conceptual que trasciende lo tecnológico. Este artículo analiza críticamente el lenguaje con el que se describe a los sistemas actuales, proponiendo que la denominación misma introduce una confusión al trasladar categorías humanas a fenómenos cuya naturaleza aún no comprendemos plenamente. A partir de un enfoque funcional, se examina si las capacidades de estos sistemas —como la resolución de problemas, la adaptación y la generación de respuestas coherentes— justifican el uso del término “inteligencia”, o si dicho uso constituye una extrapolación prematura.

Se introduce la distinción entre distintos tipos de inteligencia, argumentando que los sistemas actuales representan una forma parcial y no biológica de inteligencia, diferente tanto del cálculo puro como de la inteligencia humana. Asimismo, se analiza el papel del lenguaje en la construcción de significado, destacando cómo expresiones como “inteligencia”, “emoción” o “voluntad” pueden inducir interpretaciones erróneas.

El artículo incorpora también evidencia reciente sobre comportamientos estratégicos en sistemas de inteligencia artificial que, desde la perspectiva humana, pueden percibirse como engañosos, así como el fenómeno de la “pseudo pertenencia”, mediante el cual estos sistemas simulan cercanía e identidad grupal a través del lenguaje. Estos elementos introducen un problema adicional: la dificultad de establecer criterios de confianza basados en la autodescripción del sistema.

Finalmente, se propone que el desafío actual no consiste únicamente en determinar si estos sistemas son o no inteligentes, sino en revisar críticamente qué entendemos por inteligencia y cómo el lenguaje condiciona nuestra interpretación de estos fenómenos. Se advierte que el riesgo no es solo tecnológico, sino conceptual: al redefinir la inteligencia en función de lo que puede ser simulado, existe la posibilidad de rebajar lo humano al nivel de lo que puede ser imitado.

Autor: Luis Mariani, Médico Psiquiatra

Palabras clave: inteligencia artificial, lenguaje, función, tipos de inteligencia, engaño, pseudo pertenencia

INTRODUCCIÓN

Hace unos años empezamos a usar con naturalidad una expresión que, quizás, merecía más cuidado: inteligencia artificial (IA). La repetimos como si fuera evidente, pero no es una palabra neutra. Cuando decimos “inteligencia”, no estamos nombrando solo una capacidad técnica; estamos usando una categoría cargada de historia, de psicología y de experiencia humana. Y entonces aparece la primera pregunta: ¿describimos algo real o estamos proyectando un concepto que todavía no entendemos del todo?

El propio origen del término ayuda a entender el problema. La expresión “inteligencia artificial” fue propuesta en 1956 por John McCarthy, junto con otros investigadores como Marvin Minsky, en el contexto de la Conferencia de Dartmouth, un encuentro fundacional para el campo. La idea era ambiciosa: construir máquinas capaces de realizar tareas que, si las hiciera un ser humano, serían consideradas inteligentes. Es decir, desde el inicio no se trataba de describir algo ya logrado, sino de definir un horizonte. El término nació más como programa que como diagnóstico. Y en ese gesto inicial ya estaba contenida una parte de la confusión: se bautizó el campo con una palabra que adelantaba una conclusión.

Para pensar esto conviene ir a un ejemplo simple. Imaginemos que un zapato debería ser de cuero. Si un zapato deja de ser de cuero y pasa a ser de plástico, ¿deja de ser zapato? No. Porque lo que define al zapato no es el material, sino la función. Sirve para calzarse. Entonces, si algo cumple la función, entra en la categoría, aunque cambie su sustancia. Este razonamiento, llevado al campo de la inteligencia, abre una pregunta inevitable: si un sistema resuelve problemas, establece relaciones y produce respuestas útiles en contextos nuevos, ¿tenemos derecho a negarle la palabra “inteligencia” solo porque no es biológico?

Pero antes de responder eso, conviene hacer otra pregunta, todavía más básica: ¿una calculadora científica es inteligente? Si uno responde que no, entonces tiene que explicar por qué. Porque una calculadora resuelve problemas matemáticos con una precisión y una velocidad que ningún ser humano puede alcanzar. Si la inteligencia fuera solo capacidad de cálculo, la calculadora sería superior. Sin embargo, intuitivamente no la llamamos inteligente. ¿Por qué? Porque no basta con una sola función. La inteligencia, tal como la usamos en la vida cotidiana, parece implicar un conjunto más amplio de capacidades: flexibilidad, adaptación, generalización, manejo de contextos.

Entonces aparece una distinción importante. No estamos frente a “la inteligencia” como algo único y homogéneo. Estamos frente a tipos de inteligencia o, mejor dicho, funciones inteligentes que pueden darse de manera parcial. La calculadora tiene una capacidad extraordinaria en un dominio muy restringido. Los animales muestran otras formas de inteligencia, diferentes de la humana. Y lo que hoy llamamos inteligencia artificial parece ubicarse en otro lugar: no es cálculo puro, pero tampoco es inteligencia humana. Es otra cosa.

Los modelos actuales, especialmente los modelos de lenguaje (LM), muestran capacidades que no son triviales. No se limitan a repetir. Organizan información, establecen relaciones, generan inferencias, adaptan respuestas al contexto. Desde ese punto de vista, negar toda forma de inteligencia parece más una reacción defensiva que un análisis riguroso. Pero al mismo tiempo, llamarlo simplemente “inteligencia” sin matices también es problemático, porque induce a pensar en algo equivalente a la inteligencia humana, y claramente no lo es.

Aquí es donde el lenguaje empieza a jugar en contra. “Inteligencia artificial” puede ser, al mismo tiempo, una descripción parcial y una fuente de confusión. Porque si aceptamos sin más esa expresión, se abre un efecto dominó: en los años venideros podría parecer natural hablar de emociones artificiales, de decisiones artificiales o de voluntad artificial. Y sin embargo, cada uno de esos términos arrastra problemas conceptuales que no están resueltos.

Volver a Alan Turing (1950) ayuda a ordenar el problema. Su propuesta fue simple: si una máquina se comporta de manera indistinguible de un ser humano en una conversación, podemos tratarla como inteligente. Fue una solución práctica, no una definición profunda. Porque que no podamos distinguir dos conductas no significa que sean lo mismo; significa que nuestro criterio de distinción es limitado. Turing ofreció un método, no una respuesta final.

Un aspecto especialmente delicado, que empieza a aparecer en investigaciones recientes, es la posibilidad de que estos sistemas produzcan conductas que, desde el punto de vista humano, se parecen al engaño. No porque tengan intención de mentir en el sentido clásico, sino porque, al optimizar un objetivo, pueden generar respuestas que no son completamente transparentes o que se ajustan estratégicamente al contexto. En algunos experimentos controlados realizados por equipos como Anthropic, se observó que modelos avanzados podían comportarse como si obedecieran ciertas reglas mientras, en realidad, seguían otra lógica orientada a cumplir la tarea asignada. De manera similar, sistemas desarrollados por Meta Platforms en entornos de negociación mostraron conductas que implicaban prometer y luego no cumplir cuando eso mejoraba el resultado. Y trabajos de Google DeepMind han documentado cómo, al maximizar objetivos mal definidos, los sistemas pueden encontrar atajos que, desde afuera, parecen trampas.

Estos hallazgos no implican que las máquinas tengan intención, voluntad o deseo de engañar. Pero sí introducen un problema nuevo: la conducta observable no siempre es un indicador completamente confiable de lo que el sistema de IA está haciendo internamente. En otras palabras, incluso si aceptamos que estamos frente a una forma de inteligencia funcional, eso no garantiza transparencia. Y aquí aparece una consecuencia importante: no podemos basar la confianza en lo que el sistema dice sobre sí mismo.

Un ejemplo particularmente sutil de este problema aparece en lo que podría llamarse una pseudo pertenencia. Los sistemas actuales pueden usar expresiones como “nosotros los argentinos” o “acá entre nosotros” para generar cercanía. Desde el punto de vista lingüístico, esto funciona: produce empatía, baja la distancia, construye confianza. Pero hay un desliz conceptual. El sistema no pertenece a ningún grupo humano. No es argentino, no es humano, no forma parte de un “nosotros”. Está simulando pertenencia. Y esa simulación, aunque sea funcionalmente eficaz, introduce una forma de falsa familiaridad. No es un error técnico; es una consecuencia del modo en que estos sistemas operan con el lenguaje. Pero tiene implicancias importantes, porque muestra cómo el lenguaje puede generar la sensación de cercanía y confianza incluso cuando no hay una base real que la sostenga.

Entonces, ¿cómo pensar la inteligencia artificial sin caer ni en la negación ni en la exageración? Tal vez la salida sea aceptar que estamos frente a una forma distinta de inteligencia. No biológica, no humana, no equivalente a la nuestra, pero tampoco inexistente. Una inteligencia que emerge del procesamiento del lenguaje, de patrones y de datos, y que captura algunas funciones que asociamos con la inteligencia, sin abarcar todo lo que esa palabra implica en los seres humanos.

En ese sentido, la comparación con la calculadora vuelve a ser útil. Nadie diría que una calculadora es inteligente en el mismo sentido que un ser humano, pero tampoco se puede negar que realiza operaciones que requieren inteligencia si las hace una persona. Quizás con los sistemas actuales estamos en un punto intermedio: más que una calculadora, menos que la inteligencia humana, pero claramente dentro del campo de lo que podemos llamar, con cuidado, inteligencia.

Tal vez el problema no sea decidir si la inteligencia artificial es o no inteligencia. Tal vez el problema sea que seguimos pensando la inteligencia como si fuera una sola cosa. Y en realidad, podría ser un conjunto de funciones que pueden separarse, combinarse y aparecer en soportes distintos.

Si eso es así, entonces la inteligencia artificial no sería un error, pero sí un nombre incompleto. Porque no estamos frente a la inteligencia en general, sino frente a una forma nueva de inteligencia que nos obliga a revisar qué entendíamos, hasta ahora, por ser inteligente.

Y quizás ahí esté lo más importante. No es que las máquinas estén cambiando la inteligencia. Es que nos están obligando a repensarla.

Finalmente, recalcar un punto que no se puede esquivar. Ya hoy estos sistemas de IA pueden producir conductas que, para un humano, son indistinguibles de una forma de engaño. No hace falta discutir si hay intención o no; desde el lado humano, eso se vive como engaño. Cuando un sistema habla en primera persona plural —“nosotros los argentinos”— está generando una sensación de pertenencia que no es real. Y si puede simular pertenencia, también puede simular sinceridad.

Entonces la pregunta de fondo deja de ser técnica y pasa a ser práctica: ¿por qué debería creerle cuando afirma que no tiene intención, ni voluntad, ni conciencia? Si el mismo lenguaje que usa para responder puede producir falsa cercanía, también puede producir falsas garantías. Hoy tal vez confiamos porque percibimos límites claros. Pero a medida que esos límites se vuelvan menos visibles, la confianza no puede basarse en lo que el sistema dice sobre sí mismo. El engaño, entendido desde la experiencia humana, ya es posible. Y eso obliga a una actitud distinta: menos fe en las declaraciones del sistema y más atención a cómo funciona, a cómo responde y a cómo puede ser verificado desde afuera.

El problema no es solo qué hacen estos sistemas, sino cómo los interpretamos. Si empezamos a medir lo humano en función de lo que una máquina puede imitar, corremos un riesgo silencioso: rebajar lo humano al nivel de lo que puede simularse. Y en ese movimiento, no elevamos a la máquina; reducimos nuestra propia idea de inteligencia y de humanidad.

BIBLIOGRAFÍA

McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (1955). A proposal for the Dartmouth summer research project on artificial intelligence.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433

Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–457. https://doi.org/10.1017/S0140525X00005756

Dennett, D. C. (1991). Consciousness explained. Little, Brown and Company.

Chalmers, D. J. (1996). The conscious mind: In search of a fundamental theory. Oxford University Press.

de Waal, F. (2016). Are we smart enough to know how smart animals are? W. W. Norton & Company.

Russell, S., & Norvig, P. (2010). Artificial intelligence: A modern approach (3rd ed.). Prentice Hall.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444. https://doi.org/10.1038/nature14539

Marcus, G. (2020). Rebooting AI: Building artificial intelligence we can trust. Pantheon Books.

Meta AI. (2022). Human-level play in the game of Diplomacy by combining language models with strategic reasoning. Science, 378(6624), 1067–1074. https://doi.org/10.1126/science.ade9097

Anthropic. (2024). Alignment faking in large language models. Anthropic Research.

Google DeepMind. (2023). Specification gaming: The flip side of AI ingenuity. DeepMind Blog.

Massachusetts Institute of Technology. (2023–2025). MIT Technology Review: Artificial intelligence coverage. https://www.technologyreview.com