(Puedes escuchar este artículo completo pinchando en la pista de audio…)
Me ha ocurrido en numerosas ocasiones, quizá más de las que me gustaría admitir. Cada vez es más habitual que en medio de una conversación, cualquier opinión quede inmediatamente sometida al veredicto de la IA de turno, como si fuese un árbitro infalible. Lo que antes era un intercambio de puntos de vista se convierte de pronto en una consulta apresurada al móvil para zanjar la discusión. Y la sensación que queda en el ambiente es incómodamente infantil: “te he ganado porque lo dice la IA”.
Índice de contenidos:
- Cuando la tecnología entra en la sobremesa
- La autoridad delegada: un nuevo poder simbólico en la interacción
- La ilusión de la objetividad: cuando la conversación se convierte en veredicto
- La desaparición de la voz propia: externalización del yo discursivo
- La dimensión emocional: heridas invisibles en la convivencia
- La tecnología como espejo: ¿qué revela este fenómeno sobre nosotros?
- Hacia un uso más humano y responsable de la IA
- Miradas teóricas para comprender el fenómeno
- Propuestas prácticas para un uso más humano de la IA en las relaciones personales
- Conclusión: la conversación como espacio sagrado
Cuando la tecnología entra en la sobremesa
La inteligencia artificial ha dejado de ser un artefacto futurista para convertirse en un acompañante cotidiano. Está en el trabajo, en la educación, en la gestión de tareas domésticas y, cada vez más, en nuestras conversaciones. Lo que antes era un espacio protegido —la sobremesa familiar, el café con un amigo, la discusión improvisada en el salón— empieza a verse atravesado por la presencia silenciosa de herramientas como ChatGPT.
Este fenómeno no es trivial. La conversación íntima es uno de los pilares de la vida social: en ella se negocian afectos, se construyen identidades y se refuerzan vínculos. Cuando una tecnología interviene en ese espacio, no solo modifica la forma de hablar, sino también la forma de relacionarnos.
Cuando se utiliza para descalificar o rebatir argumentos, la herida es doble: afecta al contenido del diálogo y a la dignidad de quien participa en él.
La autoridad delegada: un nuevo poder simbólico en la interacción
Desde la Sociología, Pierre Bourdieu hablaba del Capital Simbólico como ese conjunto de recursos —prestigio, reconocimiento, legitimidad— que otorgan poder en una interacción. En las conversaciones cotidianas, ese capital solía derivar de la experiencia personal, la formación o la capacidad de argumentar. Sin embargo, la IA introduce un nuevo tipo de autoridad: la autoridad delegada.
Quien dice “lo he consultado con ChatGPT” no está aportando un argumento propio, sino invocando una fuente externa que se percibe como objetiva, neutral y superior. Esto altera la dinámica del intercambio. La conversación deja de ser un diálogo entre subjetividades para convertirse en una competición por ver quién cita mejor a la máquina.
Ejemplo concreto: Imaginemos una discusión entre dos hermanos sobre un tema cotidiano, como si es mejor alquilar o comprar una vivienda. Antes, cada uno aportaba su experiencia, sus miedos, sus expectativas. Ahora, uno de ellos saca el móvil y dice: “ChatGPT dice que lo mejor es comprar”. La conversación se corta. El otro hermano ya no siente que está debatiendo con una persona, sino con un dictamen. Su opinión queda desautorizada sin haber sido escuchada.
La ilusión de la objetividad: cuando la conversación se convierte en veredicto
La psicología cognitiva ha mostrado que los seres humanos tendemos a buscar certezas incluso en ámbitos donde no las hay. La IA alimenta esta tendencia al ofrecer respuestas rápidas, articuladas y aparentemente definitivas. Pero la vida cotidiana no funciona con certezas, sino con interpretaciones, matices y experiencias subjetivas.
Cuando alguien utiliza la IA para “ganar” una discusión, introduce una lógica de veredicto que empobrece el diálogo. La conversación deja de ser un proceso de construcción conjunta de sentido y se convierte en una sentencia.
Ejemplo concreto: En una comida familiar, surge el eterno debate sobre si el aceite de oliva “engorda más” que otros aceites. Antes, la discusión podía durar minutos, mezclando anécdotas, intuiciones y conocimientos parciales. Ahora, alguien consulta la IA y lee en voz alta una respuesta extensa. El resto calla. No porque estén convencidos, sino porque sienten que ya no hay espacio para su voz.
La desaparición de la voz propia: externalización del yo discursivo
La psicología social ha estudiado cómo las personas construyen su identidad a través del lenguaje. Hablar no es solo transmitir información: es mostrarse, posicionarse, revelar quién se es. Cuando alguien delega sistemáticamente su discurso en una IA, pierde parte de esa agencia comunicativa.
Este fenómeno puede interpretarse como una externalización del yo discursivo: la persona deja de elaborar sus propias ideas y adopta un discurso prefabricado. Esto genera una sensación de distancia emocional en el interlocutor, que percibe que ya no está hablando con un ser humano, sino con un intermediario.
Ejemplo concreto: Una amiga escribe mensajes impecables, llenos de metáforas y reflexiones profundas, pero cada vez que se le pregunta algo personal, responde con textos que suenan demasiado perfectos. Al final, el interlocutor sospecha —y a veces confirma— que están generados por una IA. La conversación pierde autenticidad. La relación se enfría.
La dimensión emocional: heridas invisibles en la convivencia
La comunicación humana no es solo intercambio de ideas, sino también intercambio de afectos. Cuando alguien utiliza la IA para corregir, desautorizar o ridiculizar, el impacto emocional puede ser profundo. La persona no se siente rebatida, sino invalidada.
La Teoría del Reconocimiento de Axel Honneth sostiene que las relaciones humanas se sostienen sobre la percepción de ser visto y valorado. Cuando la IA se interpone como árbitro, ese reconocimiento se rompe. La conversación deja de ser un espacio seguro.
Ejemplo concreto: Una pareja discute sobre cómo organizar las vacaciones. Uno de ellos, cansado, consulta a la IA y dice: “ChatGPT dice que tu plan no tiene sentido”. El problema ya no es el viaje, sino la humillación. La discusión se desplaza del contenido al vínculo. Y el vínculo se resiente.
La tecnología como espejo: ¿qué revela este fenómeno sobre nosotros?
Más allá de la IA, este fenómeno revela algo incómodo: nuestra dificultad para tolerar la incertidumbre, para escuchar al otro sin necesidad de tener razón, para aceptar que la conversación es un espacio imperfecto. La IA no crea estos problemas, pero los amplifica.
La Sociología de la Vida Cotidiana, desde Erving Goffman hasta Richard Sennett, ha mostrado que la convivencia requiere habilidades delicadas: paciencia, tacto, capacidad de negociación. La IA, cuando se usa como arma argumentativa, erosiona estas habilidades porque ofrece una salida fácil: sustituir la escucha por la consulta.
Hacia un uso más humano y responsable de la IA
La solución no pasa por expulsar la tecnología de nuestras vidas, sino por integrarla con criterio. La IA puede enriquecer una conversación si se utiliza como apoyo, no como juez. Puede aportar información, pero no debería sustituir la experiencia personal ni la sensibilidad emocional.
Usarla con responsabilidad implica:
- reconocer que la conversación es un espacio de encuentro, no de competición
- valorar la voz del otro por encima de la autoridad de la máquina
- aceptar que no todas las discusiones necesitan una respuesta definitiva
- preservar la autenticidad del lenguaje propio
La IA puede ayudarnos a pensar, pero no puede —ni debe— pensar por nosotros. Mucho menos hablar por nosotros.
Miradas teóricas para comprender el fenómeno
La irrupción de la inteligencia artificial en la conversación cotidiana puede analizarse desde múltiples marcos teóricos que ayudan a iluminar sus efectos sociales y psicológicos.
Goffman y la “Presentación del Yo”: Erving Goffman sostenía que la interacción social es una representación en la que cada individuo cuida su “fachada” para mantener una imagen coherente ante los demás. Cuando alguien recurre a la IA para reforzar sus argumentos, introduce un elemento que altera esta dramaturgia: ya no se muestra a sí mismo, sino a una versión aumentada y asistida. La conversación pierde espontaneidad porque la persona deja de “actuar” desde su identidad y empieza a hacerlo desde un guion externo.
Habermas y la Distorsión del Espacio Comunicativo: Jürgen Habermas defendía la idea de una “acción comunicativa” basada en la búsqueda de entendimiento mutuo. La IA, cuando se usa como arma argumentativa, rompe este ideal: introduce una racionalidad instrumental que sustituye el diálogo por la imposición. El espacio comunicativo deja de ser horizontal y se convierte en un terreno jerarquizado donde la máquina actúa como fuente de legitimidad.
Mead y la Construcción del Yo a Través del Otro: George Herbert Mead explicaba que el yo se forma en relación con los demás, a través de la interacción simbólica. Si la IA interviene en esa interacción, el proceso se distorsiona. La persona ya no responde al “otro significativo”, sino a un intermediario digital. Esto puede debilitar la capacidad de empatía y reducir la sensibilidad hacia las emociones ajenas.
Sennett y la Corrosión del Carácter: Richard Sennett analizó cómo las dinámicas contemporáneas —la prisa, la eficiencia, la superficialidad— erosionan la capacidad de sostener vínculos profundos. La IA, al ofrecer respuestas rápidas y aparentemente definitivas, refuerza esta tendencia. La conversación se vuelve más eficiente, sí, pero también más frágil. Se pierde el arte de la paciencia, del matiz, del desacuerdo constructivo.
Bauman y la Liquidez de los Vínculos: Zygmunt Bauman describió la modernidad líquida como un tiempo en el que las relaciones se vuelven más volátiles y menos comprometidas. La IA, al facilitar interacciones impersonales y discursos prefabricados, puede contribuir a esta liquidez. La conversación deja de ser un espacio sólido donde se construyen significados compartidos y se convierte en un intercambio rápido, desechable, casi consumible.
Propuestas prácticas para un uso más humano de la IA en las relaciones personales
La tecnología no tiene por qué ser enemiga del diálogo. El reto consiste en integrarla sin que sustituya la esencia humana de la conversación. A continuación, se proponen algunas prácticas que podrían ayudar a preservar la calidad del intercambio interpersonal.
- Recuperar la escucha activa: Antes de consultar a la IA, escuchar de verdad. No para responder, sino para comprender. La escucha activa implica atención, paciencia y disposición a dejarse afectar por lo que el otro dice. Es un antídoto contra la tentación de recurrir a la máquina para zanjar el debate.
- Usar la IA como apoyo, no como juez: La IA puede aportar información útil, pero no debería dictar veredictos. Una forma saludable de integrarla es utilizarla para ampliar perspectivas, no para invalidar al otro. En lugar de “ChatGPT dice que estás “equivocado”, optar por “he leído algo interesante que podríamos comentar”.
- Preservar la voz propia: Si se utiliza la IA para redactar mensajes o argumentos, es recomendable revisarlos y adaptarlos al propio estilo. La autenticidad es un valor relacional: las personas necesitan sentir que hablan con alguien real, no con un discurso genérico.
- Establecer acuerdos explícitos: En familias o grupos de amigos donde la IA aparece con frecuencia en las conversaciones, puede ser útil pactar ciertos límites. Por ejemplo, decidir que en discusiones sensibles no se consultará a la máquina, o que se reservará su uso para aclarar datos objetivos, no para cuestiones emocionales o valorativas.
- Fomentar el desacuerdo constructivo: El desacuerdo es parte natural de la convivencia. En lugar de buscar la respuesta correcta, es más enriquecedor explorar por qué cada persona piensa como piensa. La IA puede ayudar a contextualizar, pero no debe sustituir la reflexión personal.
- Reivindicar la imperfección: La conversación humana es imperfecta, y esa imperfección es valiosa. Los silencios, las dudas, las contradicciones y los errores forman parte del proceso de conocernos. La IA, con su precisión aparente, puede hacernos olvidar que la vulnerabilidad también comunica.
Conclusión: la conversación como espacio sagrado
La inteligencia artificial es una herramienta poderosa, pero no debe ocupar el lugar de la palabra humana. La conversación es un espacio sagrado donde se construyen vínculos, se negocian significados y se reconocen identidades. Cuando la IA se utiliza para descalificar o imponer, ese espacio se hiere.
Integrar la tecnología de forma responsable implica recordar que ninguna máquina puede sustituir la calidez de una voz propia, la riqueza de un desacuerdo sincero o la profundidad de una escucha auténtica. La conversación es, en última instancia, un acto de cuidado. Y ese cuidado solo puede nacer de nosotros.
![]() Albert Mesa Rey es de formación Diplomado en Enfermería y Diplomado Executive por C1b3rwall Academy en 2022 y en 2023. Soldado Enfermero de 1ª (rvh) del Grupo de Regulares de Ceuta Nº 54, Colaborador de la Red Nacional de Radio de Emergencia (REMER) de Protección Civil y Clinical Research Associate (jubilado). Escritor y divulgador. |
Tags: #inteligencia artificial y conversación humana, #IA y relaciones personales, #autoridad delegada IA, #deterioro del diálogo íntimo, #impacto social de la inteligencia artificial, #uso responsable de la IA, #IA en la vida cotidiana, #IA y comunicación interpersonal, #autenticidad en la era digital





