
- Introducción
En el debate público y profesional es cada vez más frecuente afirmar que la Inteligencia Artificial (IA) “piensa”, “razona” o incluso “toma decisiones”. Estas expresiones, aunque comprensibles como metáforas, no son neutrales: trasladan al ámbito tecnológico categorías propias del razonamiento humano y pueden generar una falsa sensación de comprensión, juicio y autonomía donde solo existe procesamiento estadístico.
Esta imprecisión conceptual no es inocua. En contextos administrativos, jurídicos, contables, tributarios o judiciales, atribuir a la IA capacidades que no posee puede derivar en delegaciones indebidas, opacidad decisoria y debilitamiento de la responsabilidad humana. Cuanto más convincente parece el resultado producido por la IA, mayor es el riesgo de aceptar acríticamente su salida como si se tratara de un juicio experto.
Esta colaboración propone aclarar cómo funciona realmente la IA, en qué se diferencia tanto del razonamiento humano como del cálculo tradicional -o incluso una planilla de cálculo-, y por qué confundir estos planos no es un error técnico menor, sino un problema relevante que puede acarrear riesgos y responsabilidades graves.
- El cálculo tradicional: exactitud sin comprensión
Una calculadora o una hoja de cálculo ejecutan reglas matemáticas fijas. Si se ingresa 2 + 2, el resultado será 4, siempre.
👉 Ejemplo:
Una calculadora puede calcular correctamente una multa, pero no puede decidir si corresponde aplicar una excepción por razones de equidad o contexto del caso -error excusable-.
Estos sistemas no comprenden el significado de lo que procesan: manipulan símbolos conforme a reglas previamente definidas¹.
- El razonamiento humano: comprender, interpretar y juzgar
El ser humano no solo calcula: comprende. Razonamos integrando experiencia, contexto, valores, emociones e intención. La inteligencia humana es además encarnada: aprendemos viviendo y actuando en el mundo.
👉 Ejemplo:
Dos personas cometen el mismo error administrativo. Un funcionario puede sancionar a una y advertir a la otra, atendiendo a circunstancias personales o a la buena fe. Ese juicio no surge de una regla matemática.
Esta capacidad de interpretación y valoración ética no es reducible a algoritmos².
- ¿Qué y cómo hace realmente la IA generativa?
Los modelos de lenguaje (como ChatGPT o Gemini) no piensan ni entienden como los humanos. Funcionan mediante la predicción estadística de texto.
Según El País:
“Saben escribir, razonar e incluso debatir, pero ¿realmente comprenden lo que dicen? (…) en muchos casos carecen de comprensión genuina”³.
Para entender cómo la IA generativa “razona”, es fundamental alejarse de la idea de que posee una mente analítica como la humana. En su lugar, lo que ocurre es un proceso masivo de razonamiento estadístico y matemático.
Seguidamente, se explica este proceso, de manera muy breve:
- La base: de palabras a números (tokens)
La IA no lee palabras ni entiende conceptos como “justicia” o “amor” de forma abstracta. El primer paso es la tokenización, donde el texto se divide en unidades pequeñas llamadas tokens (fragmentos de palabras o caracteres). Cada token se convierte en un vector, que es esencialmente una lista de números que representa la posición de ese fragmento en un espacio matemático inmenso.
- El núcleo: predicción probabilística
Lo que llamamos “razonamiento” en la IA es, en realidad, una inferencia estadística. El modelo ha sido entrenado procesando billones de palabras para minimizar el error al adivinar qué sigue en una secuencia.
- Completar patrones: La IA no “sabe” la respuesta; lo que hace es completar patrones de lenguaje basados en qué tokens suelen aparecer juntos según sus datos de entrenamiento.
- Distribución de probabilidad: Ante una pregunta, la IA genera una distribución de probabilidad sobre todo su vocabulario y elige el token más “plausible” o probable para continuar la frase.
- Simulando la lógica (razonamiento estadístico)
La IA Gen no entiende las reglas de la lógica; simplemente las reproduce estadísticamente.
- Secuencias plausibles: Cuando le pides resolver un problema matemático, la IA genera una secuencia plausible de tokens que imita el razonamiento humano. Si ha visto millones de veces que después de “2+2=” sigue un “4”, lo pondrá no porque sepa sumar, sino porque estadísticamente es lo que corresponde.
- Cadena de pensamiento (Chain-of-Thought): Es una técnica donde el modelo genera pasos intermedios. Aunque parece que está “reflexionando”, solo está encadenando fragmentos de texto que, por probabilidad, llevan a una conclusión lógica.
- Habilidades emergentes y el “sentido”
A medida que estos modelos crecen en datos y potencia de cálculo, ocurren “cambios de fase” donde aparecen habilidades emergentes. De repente, el modelo parece capaz de programar o explicar chistes, pero esto sigue siendo un subproducto natural del entrenamiento estadístico avanzado y no de una comprensión real de la realidad. Incluso, más recientemente “actúa” y “toma decisiones” bajo la figura de los agentes autónomos de IA.
En resumen, el razonamiento de la IA es desencarnado; es una inteligencia sin mundo ni conciencia que no crea sentido, sino que lo simula mediante cálculos probabilísticos. Mientras que el humano usa la intuición y la experiencia física para comprender, la IA utiliza el procesamiento masivo y la retropropagación para ajustar sus números internos y parecer coherente.
Podríamos imaginar que tenemos un rompecabezas gigante con billones de piezas, pero no sabes qué imagen forman. Sin embargo, tienes un manual estadístico que te dice que la pieza azul con forma de “A” suele ir al lado de la pieza verde con forma de “B” el 99% de las veces. La IA arma el rompecabezas siguiendo esas probabilidades; al final, la imagen se ve perfecta y tiene sentido para quien la mira, pero la IA nunca supo qué estaba armando, solo siguió la probabilidad de que las piezas encajaran.
- La diferencia radical: intención, ética y corporeidad
La distinción más profunda entre el razonamiento humano y el artificial reside en la ética, la intención y la existencia encarnada.
- Intención y ética:
El ser humano posee ética (el discernimiento entre el bien y el mal), y la intención es una característica esencial de la acción intrínsecamente ligada a la responsabilidad moral. Un acto solo puede ser moralmente correcto o incorrecto si se considera la intención que lo anticipa. Al carecer de ética y de moral, la IA carece de intención; la intención sigue circunscrita al programador. La máquina simplemente es efectiva.
- Generación espontánea y voluntad:
La acción humana es producto de la voluntad y la generación espontánea de conocimiento. Un humano puede despertar con una idea creativa o un poema. La IA, en cambio, no genera conocimiento ni realiza acciones espontáneamente; toda acción que realiza es diseñada y programada por una persona.
- Corporeidad y experiencia:
La inteligencia humana está profundamente anclada en la experiencia personal, corporal y cultural. Entendemos conceptos como “mojado” porque lo hemos sentido. La IA, al ser software y desencarnada, no tiene experiencias, historia, psicología ni sufre dolor. Su conocimiento es de “segunda mano”, recopilado de textos humanos.
👉 Ejemplo:
Si se le pregunta a la IA:
«¿Qué pasa si presento tarde una declaración jurada?»
puede dar una respuesta correcta… o una incorrecta, pero redactada con el mismo tono de seguridad. La IA no sabe cuál es verdadera: solo elige la más probable según sus datos.
Investigaciones confirman que estos modelos no comprenden el significado subyacente del lenguaje como lo hacen los humanos⁴.
Como se mencionó previamente, algunas técnicas, como la cadena de pensamiento (chain-of-thought), hacen que la IA muestre pasos intermedios que parecen razonamiento lógico. Sin embargo, estos pasos no reflejan el proceso real de decisión del modelo.
“Las explicaciones generadas por los LLM no describen fielmente el mecanismo subyacente de predicción”⁵.
👉 Ejemplo:
Es como un alumno que escribe todos los pasos “correctos” en un examen, pero solo porque los memorizó, no porque entienda el problema.
- ¿Y qué ocurre con los agentes de IA? Más autonomía, no más razonamiento
En los últimos desarrollos de la Inteligencia Artificial han ganado protagonismo los llamados agentes de IA. A diferencia de la IA generativa tradicional —que responde a una instrucción y espera una nueva—, un agente es un sistema diseñado para percibir un entorno, definir pasos intermedios y ejecutar acciones de manera relativamente autónoma, de acuerdo con objetivos previamente fijados por personas humanas⁶.
Esta mayor autonomía operativa puede llevar a pensar que el agente “razona mejor” o que se aproxima al razonamiento humano. Sin embargo, desde un punto de vista conceptual, los agentes no alteran la naturaleza del razonamiento artificial descripta hasta aquí.
El agente no comprende normas, no interpreta principios ni evalúa consecuencias éticas o jurídicas. Lo que hace es encadenar decisiones instrumentales —basadas en reglas, modelos estadísticos y funciones de optimización— para alcanzar un objetivo definido externamente. La diferencia con la IA generativa no es cognitiva, sino funcional.
👉 Ejemplo:
Un agente puede analizar datos fiscales, priorizar contribuyentes para fiscalización, generar notificaciones automáticas y actualizar estados de expedientes. Sin embargo, no sabe por qué una selección puede ser jurídicamente razonable o arbitraria; solo ejecuta el criterio que maximiza un objetivo programado (por ejemplo, eficiencia recaudatoria o detección de inconsistencias).
Aunque el agente pueda explicar sus acciones con lenguaje coherente, esa explicación —al igual que en la IA generativa— no constituye una motivación jurídica real, sino una racionalización estadísticamente plausible posterior a la acción. No hay comprensión normativa, solo simulación discursiva.
En este sentido, los agentes de IA no “razonan” más que los modelos de lenguaje: simplemente actúan. Y cuanto mayor es su autonomía operativa, mayor es el riesgo de confundir ejecución automatizada con juicio humano, reforzando la ilusión de que existe una decisión inteligente donde solo hay un proceso técnico.
Por ello, la existencia de agentes no elimina, sino que refuerza, la necesidad de control humano efectivo. El agente no es un “funcionario digital”: es una herramienta avanzada cuya actuación sigue siendo atribuible, en todos los casos, a las personas y organizaciones que la diseñan, la implementan y la utilizan.
- Errores, alucinaciones y sesgos
La IA puede generar alucinaciones: respuestas falsas, expresadas con gran seguridad. Esto ocurre porque el sistema no evalúa verdad o falsedad, sino coherencia lingüística con técnicas estadísticas.
👉 Ejemplo
La IA puede citar una norma inexistente con formato perfecto. Desde el punto de vista del lenguaje, todo “suena bien”; desde el punto de vista jurídico, es un error grave.
Además, los modelos pueden reproducir sesgos derivados de los datos de entrenamiento o del contexto inmediato de la conversación7.
Conociendo el funcionamiento de los modelos de IA y los riesgos que acarrean, se ha destacado la importancia del diseño de prompts como parte del control de riesgos en el uso de IA8.
- El riesgo de antropomorfizar la IA
El principal peligro no es técnico, sino conceptual: tratar a la IA como si fuera una mente humana o una calculadora infalible.
La IA:
- no tiene intención,
- no posee ética,
- no asume responsabilidad.
Por lo tanto, toda consecuencia derivada de su uso recae en personas humanas.
- Conclusión
La IA no comprende semánticamente como un ser humano ni razona mediante juicio, intención o valoración ética. Tampoco calcula como una máquina clásica que ejecuta reglas explícitas y determinísticas. Opera identificando patrones y estimando probabilidades, y a partir de ello simula razonamientos y produce resultados que parecen decisiones, sin comprensión, conciencia ni responsabilidad moral.
La incorporación de agentes de IA amplía su capacidad de acción —al permitirle encadenar tareas, ejecutar instrucciones y adaptarse a entornos definidos—, pero no altera su naturaleza: la autonomía operativa no equivale a comprensión ni a razonamiento jurídico. El agente “actúa”, pero no sabe por qué actúa ni puede justificar normativamente sus resultados.
Comprender esta diferencia no es un ejercicio teórico, sino una exigencia práctica y jurídica. Confundir simulación con razonamiento conduce a delegaciones indebidas, opacidad decisoria y dilución de responsabilidades. Por ello, el uso responsable de la IA exige control humano efectivo, trazabilidad y rendición de cuentas: no como una formalidad, sino como la condición indispensable para preservar la responsabilidad humana (human in the loop) en toda decisión crítica o jurídicamente relevante.
- Citas bibliográficas
- Ferrer López, J. R. (2025). IA vs. pensamiento humano: Un análisis de las diferencias cognitivas. https://drjoseferrer.com/ia-vs-pensamiento-humano-un-analisis-profundo-de-las-diferencias-cognitivas/
- Pezoa, A. (2025). Inteligencia humana e inteligencia artificial: Una diferencia radical. https://ellibero.cl/tribuna/inteligencia-humana-e-inteligencia-artificial-una-diferencia-radical/
- El País (2025). Comprensión Potemkin: la IA es analfabeta funcional y no entiende lo que escribe. https://elpais.com/tecnologia/2025-08-28/comprension-potemkin-la-ia-es-analfabeta-funcional-y-no-entiende-lo-que-escribe.html
- Dentella et al. (2023). Testing AI on language comprehension tasks reveals insensitivity to underlying meaning. https://arxiv.org/abs/2302.12313
- Sarkar, A. (2024). Large Language Models Cannot Explain Themselves. https://arxiv.org/abs/2405.04382
- Porporatto, P. A. (2025, 22 de septiembre). Los agentes de Inteligencia Artificial en la concepción de “Contadores 4.0”. Mercojuris. https://mercojuris.com/los-agentes-de-inteligencia-artificial-en-la-concepcion-de-contadores-4-0-dr-pablo-a-porporatto-juez-del-tribunal-fiscal-de-la-nacion
- Rodríguez San Juan et al. (2024). Heurísticos y sesgos en modelos de lenguaje de gran tamaño. https://2024.cipsico.org/ponencia/heuristicos-y-sesgos-en-modelos-de-lenguaje-de-gran-tamano-evidencia-desde-chatgpt-y-gemini/
- Porporatto, P. (2025, 9 de noviembre). La importancia estratégica de los prompts: De la tarea manual al “apalancamiento cognitivo” en el ámbito legal y contable con la Inteligencia Artificial. Mercojuris. https://mercojuris.com/la-importancia-estrategica-de-los-prompts-de-la-tarea-manual-al-apalancamiento-cognitivo-en-el-ambito-legal-y-contable-con-la-inteligencia-artificial-cont-pub-pablo-porp/ Mercojuris
—
fuente: Inteligencia Artificial razona? Comparación entre el ser humano, la calculadora y los …”> GOOGLE NEWS



