Dr.David Perez Martínez habla sobre LLM y Salud Mental
Artículo de Investigación sobre cómo los LLM impactan la salud mental en español, sus sesgos lingüísticos, culturales y los profundos desafíos éticos que plantean
Por Luz Elena Grisales Gonzalez
El político Inglés Edmund Burke llamó a la prensa El Cuarto Poder. Jeffred Archer escribió su novela sobre cómo dos gigantes de la prensa se enfrentan para tener el poder absoluto de los medios.
Cuando para 1793, el político inglés Edmund Burke identificó a la prensa como el primer vehículo de difusión de las ideas revolucionarias en Europa, acuñó lo que conocemos como La metáfora del IV Poder.
Siglos después, enfrentamos una revolución comparable con la inteligencia artificial. Los grandes modelos de lenguaje – LLM- y Chatbots se han convertido en poderosos canales de información que, sin ser reconocidos formalmente como fuentes autorizadas, influyen cada día más en la forma en que accedemos al conocimiento, especialmente en áreas sensibles como la salud mental.
Estos sistemas se están convirtiendo, de facto, en un Quinto Poder, que opera bajo lógicas y principios propios, muchas veces desconocidos para sus usuarios.
La Dimensión Linguistica: El Español en Desventaja
En El Diario de la Medicina, Andre Soubiran y Jean de Kearney nos hablan sobre cómo los médicos podrían decir la parte exacta de «imaginación» en nuestras enfermedades.
En el anuario del Instituto Cervantes se reporta que las cifras alcanzan ya más de 600 millones de hablantes de español en el mundo, de los cuales, casi 500 millones son hablantes nativos y unos 100 millones viven fuera de los países hispánicos.
Esto representa el 7.5 de la población mundial. Esta enorme comunidad lingüística se enfrenta a un desafío particular: la mayoría de los LLM y Chatbots han sido entrenados primordialmente en inglés.
Esta realidad plantea interrogantes fundamentales sobre cómo la información en salud mental, un tema sensible y culturalmente matizado, lega a los hispanoparlantes a través de estos sistemas.
Las particularidades culturales, los matices regionales y las diferentes concepciones de la salud mental propias del mundo hispano, podrían estar siendo filtradas a través de una lente anglosajona, con las consiguientes distorsiones y simplificaciones.
¿Sabemos Cuántos Hispanoparlantes consultan sobre Salud Mental a LLM y Chatbots?
El uso masivo de LLMs y Chatbots conversacionales para consultas de salud mental, son un fenómeno reciente y para información y datos actualizados, hay barreras que considerar como son la privacidad de estos y la manera en que son son etiquetados.
Lo que sí podemos inferir es que las búsquedas de información sobre salud mental han aumentado tras la pandemia. En su Reunión Anual del Foro Económico Mundial 2025, concluyen que los trastornos de salud mental contribuyen a la carga mundial de enfermedades y que el problema empeora ante la escasez crónica de profesionales cualificados.
En ese caso, es comprensible que muchas personas acudan a los LLM como fuente alternativa de información sobre salud mental. Pero,detrás de esta tendencia surgen importantes cuestionamientos éticos y prácticos.
Infografía resume información en 2025 sobre la manera en que los hispanoparlantes usan los LLM y Chatbots conversacionales, para informarse-sobre Salud Mental.
La perspectiva neurológica: Entrevista con el Dr. David Pérez Martínez
Es vital conocer la visión de un neurólogo sobre cómo los LLM y Chatbots conversacionales podrían impactar la comprensión y el tratamiento de las condiciones que afectan al cerebro y cómo piensan y «razonan».
Aplicaciones en Neurociencia y paralelismos con el Cerebro Humano
Dr. Pérez Martínez, usted hizo un hilo en X sobre cómo la Inteligencia Artificial podría ayudarnos a entender mejor cómo funciona el cerebro y se basó en el estudio de la empresa Anthropic sobre el desarrollo de un método para observar cómo «piensa» su IA.
En él encontró que hay un paralelismo inesperado con la neurobiología y que los LLM desarrollan representaciones internas emergentes, similares a las representaciones mentales del cerebro.
¿Cuáles son los límites más importantes de este paralelismo?
Dr. David Pérez Martínez:
Un primer acercamiento a la inteligencia artificial (IA) y a los modelos grandes del lenguaje (LLM) frente al cerebro humano, hace sugerir un funcionamiento similar o ciertos paralelismos.
Es prudente tener claro que presentan funcionamientos muy diferentes. Aunque ambos desarrollan representaciones internas, los LLM no comprenden ni poseen intencionalidad; operan sobre correlaciones estadísticas, y no sobre significados.
Además, es importante subrayar que usarlos como modelos de cognición puede inducir a error si olvidamos que no tienen consciencia ni emociones.
Pregunta, Luz Elena Grisales
¿Qué precauciones debemos tener al usar estos modelos como «modelos de cognición» para la información y el Periodismo en Salud?
Dr.David Pérez M.
En el periodismo en salud, esto implica una responsabilidad adicional, ya que obliga a contextualizar los resultados y evitar antropomorfismos que generen una falsa autoridad sobre temas sensibles.
Sugiere que los LLM pueden servir como modelos artificiales para estudiar la cognición (abrir-mapear-modificar)..¿Qué aportes concretos creen que pueden ofrecer estos sistemas a la neurociencia?
Dr. David Pérez Martínez:
Los LLM pueden funcionar como modelos computacionales para explorar principios generales de organización cognitiva, tales como codificación o plasticidad funcional.
Aunque no son cerebros, permiten realizar simulaciones útiles para probar hipótesis sobre el lenguaje, la memoria o la atención. Por ejemplo, el estudio de cómo representan conceptos abstractos o cómo generalizan podría iluminar procesos similares en el córtex cerebral, en especial cuando se combinan con neuroimagen y datos de pacientes reales.
En el futuro, es posible que dispongamos de modelos donde podremos virtualizar, de una forma limitada, patologías neurológicas y las consecuencias virtuales de distintas intervenciones. Entramos en la era de los gemelos digitales, donde una réplica virtual de un paciente nos permitiría simular de forma personalizada la evolución de enfermedades y predecir la respuesta a tratamientos.
Los LLM muestran planificación y razonamiento jerárquico, pero lo hacen sin comprensión real. ¿Cómo pueden el periodismo en general y la sociedad civil asegurarse de que estas capacidades no generen una falsa sensación de comprensión o autoridad de la IA?
Dr. David Pérez Martínez:
La clave está en la alfabetización digital. El periodismo debe informar no solo con IA, sino también sobre la IA, con relación a cómo funciona, qué limitaciones tiene y qué riesgos conlleva su uso sin crítica.
De lo contrario, se corre el riesgo de que la elocuencia de la máquina se confunda con competencia real. Promover el pensamiento crítico, divulgar cómo se entrenan estos sistemas y exigir transparencia en su funcionamiento son pasos esenciales para evitar esta ilusión de comprensión.
La virtud de un LLM está en su exquisita sintaxis, pero carecen de una semántica o conocimiento real de lo que están expresando
En su novela, publicada en 1932, Aldous Huxley alertó sobre los peligros de darle el poder absoluto a una casta que pueda modular biológicamente a la humanidad. ¿Son ahora, los LLM, ese Quinto Poder?
Los LLM, el nuevo Quinto Poder en la Era Digital: Implicaciones éticas
Periodista: Luz Elena Grisales
Sobre el hecho de que podamos intervenir en las «features»-características- internas de la IA y modificar su salida, recuerda a la neuro modulación.
¿Qué riesgos y oportunidades ve la capacidad de manipulación directa de los procesos internos de la IA, tanto en términos éticos-estigma-sesgos cognitivos, como de seguridad?
Dr. David Pérez Martínez:
«La posibilidad de intervenir en las representaciones internas de un LLM recuerda a la neuro modulación cerebral». Desde una perspectiva ética, esto abre la puerta en medicina a la personalización terapéutica, pero también al riesgo de reforzar sesgos y estigmas si no se supervisa adecuadamente.
Estaríamos entrando en una etapa de manipulación avanzada de la mente, una tecno-manipulación compleja. Las incertidumbres éticas serían enormes y la posibilidad de ejercer un efecto sobre las decisiones de las personas estarían limitando el libre albedrío.
En todo caso, este tema queda relegado de momento a la ciencia-ficción, ya que no hay tecnología actual que pueda, siquiera, plantear algo similar.
¿Qué importancia le da al entrenamiento ético y a la supervisión humana en el desarrollo de LLM y Chatbots personalizados para el periodismo, específicamente en Salud Mental?
Dr. David Pérez Martínez:
Es absolutamente central.La salud mental es un terreno donde el lenguaje tiene un poder inmenso para sanar o dañar. Un LLM que no ha sido entrenado con sensibilidad cultural ni validado por expertos, puede reforzar estigmas, ofrecer consejos inapropiados o banalizar el sufrimiento humano. La supervisión humana experta no es opcional, es esencial para garantizar que estos sistemas respeten principios éticos, desde la veracidad hasta la compasión, especialmente en contextos tan delicados como la salud mental.
Cada día nacen nuevos modelos LLM y chatbots: algunos totalmente gratuitos para millones. ¿Cómo evitar desde el periodismo independiente y la sociedad civil responsable, que la fascinación tecnológica desplace los principios éticos y humanos en la investigación y la comunicación?
Dr. David Pérez Martínez:
Recordando que la tecnología es un medio, no un fin. El periodismo debe asumir un papel divulgador que cuestione, contextualice y complemente el discurso tecno céntrico, con una visión humanista.
Esto implica visibilizar los sesgos que perpetúan desigualdades y la promoción del uso responsable de la IA. La fascinación tecnológica no debe obviar los valores que sostienen una sociedad basada en la equidad, la empatía y el pensamiento crítico.
Como neurólogo y basándose en sus análisis sobre el «razonamiento» de la IA,
¿Qué ocurre en las «representaciones internas emergentes» de un LLM cuando debe razonar y elaborar respuestas en español habiendo sido entrenado con datos en inglés?
Dr. David Pérez Martínez:
Hay que partir de la idea de que en gran medida la actividad de un LLM entra dentro de la «caja negra» que representan estos modelos, donde el conocimiento que tenemos de su funcionamiento es limitado.
En todo caso, es razonable pensar que, si el modelo ha sido entrenado con mayor exposición y diversidad en inglés, desarrolle respuestas con una mayor precisión conceptual, menos errores y respuestas más contextualizadas en dicho idioma.
El razonamiento se podría ver afectado especialmente en dominios técnicos o culturales donde la precisión y la idiosincrasia lingüística son claves, como puede ser el caso de la medicina.
LLM: Desafíos Culturales para Informar sobre Salud Mental en español
Cerca de 556 millones de personas somos hispanoparlantes
¿podría explicarnos si los «patrones de razonamiento» o «vías neuronales artificiales» que activa un LLM, son diferentes cuando procesa consultas médicas o de salud en español versus inglés?
Dr. David Pérez Martínez:
No tenemos datos claros contrastados en este análisis. Es razonable pensar que si se ha entrenado en inglés sus parámetros se haya ajustado con más datos y variedad en ese idioma.
Esto se traduce en una mayor coherencia lógica, riqueza semántica y precisión contextual. Por ello, un dato a revisar en la fiabilidad de los estudios con Chatbots y agentes conversacionales basados en IA es su fuente primaria de entrenamiento y su precisión en distintos idiomas.
Los LLM y los Sesgos cognitivos en diferentes idiomas
¿Cómo se manifiestan los sesgos cognitivos en la «mente» de un LLM al cambiar de idioma?
Dr. David Pérez Martínez:
Los sesgos pueden amplificarse o atenuarse según el idioma. Por ejemplo, en inglés puede replicar estereotipos médicos más propios del mundo anglosajón, mientras que en español puede reflejar otras narrativas centradas en la idiosincrasia cultural de los países de habla hispana.
Impacto del entrenamiento en inglés de LLM en usuarios de habla hispana: Algunos Sesgos de Entrenamiento en los LLM
Todo ello se remite al concepto de sesgos de entrenamiento del LLM. Este concepto refleja los patrones culturales, lingüísticos y sociales presentes en las fuentes originales, lo que puede llevar a que el modelo reproduzca estereotipos, desigualdades o enfoques dominantes, especialmente si ciertos grupos, idiomas o perspectivas están infrarrepresentados.
Obviamente, en contextos sensibles como la salud, estos sesgos pueden afectar la equidad y la precisión de las respuestas. Los sesgos culturales presentes en el español latinoamericano (como el fatalismo, el personalismo o el respeto a la jerarquía médica) son diferentes a los sesgos presentes en la cultura anglosajona.
¿Cómo cree que estas diferencias culturales codificadas en el lenguaje afectan el razonamiento y las respuestas de los LLM, especialmente cuando abordan temas de salud mental en diferentes contextos culturales hispanoparlantes?
Dr. David Pérez Martínez:
Como hemos comentado, un LLM que responde desde una lógica anglosajona puede resultar inapropiado en otros contextos donde la relación médico-paciente tenga peculiaridades propias.
Esto puede llevar a malentendidos o incluso a pérdida de confianza en la información ofrecida. Para evitarlo, es necesario ajustar no solo el idioma, sino el marco cultural del modelo, incorporando corpus de datos regionales y supervisión local que refleje la diversidad de creencias y prácticas en salud mental en el mundo hispanohablante.
Los Datos de entrenamiento de los LLM y Chatbots, más allá de la traducción
Datos Estadísticos Actualizados
Esta imagen, con datos y estadísticas actualizados a 2025, evidencia cómo los hispanoparlantes intentan, con desventaja, acceder a información útil y confiable en Salud Mental, a través de LLM y Chatbots Conversacionales, entrenados en inglés y con sesgos linguíticos y culturales subyacentes.
Hay algunos datos y análisis desde algunos creadores de LLM: Así, en “Rastreando los Pensamientos de un Gran Modelo de Lenguaje”, La empresa Antrophic afirma que Claude.AI habla varios idiomas y se pregunta: ¿cuál idioma usa mentalmente?
De otro lado, en “La Urgencia de la Interpretabilidad”, la misma empresa investiga cómo comprender el funcionamiento interno de los sistemas de AI, antes de que alcancen un inmenso nivel de poder.
Los que usamos la AI para hacer un periodismo en salud riguroso «pretendemos» tener claro cuándo y por qué usarla. Pero, hay momentos en que olvidamos que son máquinas, entrenadas con grandes cantidades de datos textuales, que repiten sin comprender-como loros estocásticos-según su distribución de probabilidad, pero, finalmente, máquinas.
Por ello, es pertinente pensar que elegimos nuestros LLM y Chatbots personalizados- basándonos en nuestros valores, porque encontramos que sus misiones y visiones concuerdan con nuestros principios éticos, como personas y periodistas. Es por esto que importan tanto sus datos de entrenamiento y su origen.
Más de 600 millones de hablantes de español en el mundo
Aproximadamente 500 millones son hablantes nativos
Cerca de 100 millones viven fuera de países hispánicos
Representa el 7.5% de la población mundial
El español es la tercera lengua más utilizada en internet después del inglés y el chino
2. Sobre Salud Mental y consultas digitales
Según la OMS en 2024), los trastornos mentales representan el 10% de la carga mundial de enfermedad.
Solo el 1% del personal sanitario mundial se dedica a la salud mental
Un estudio de JAMA Psychiatry (2023) muestra que el 47% de los usuarios que buscan información sobre salud mental online lo hacen a través de plataformas de IA.
3. Sobre la Brecha en acceso a servicios de Salud Mental
La OMS (2024) estima que más del 75% de personas con trastornos mentales en países de renta baja y media no reciben tratamiento
El promedio de psiquiatras en América Latina, es de 2 psiquiatras por cada 100,000 habitantes, frente a 12 en países desarrollados
Durante la pandemia, hubo un aumento del 25% en la prevalencia de ansiedad y depresión a nivel mundial
4. LLMs y Representación Lingüística
Un análisis de 2024 publicado en Nature Machine Intelligence revela que menos del 5% de los datos de entrenamiento de los principales LLMs están en español
Los 10 LLMs más utilizados tienen una precisión 22% menor, cuando responden en español comparado con inglés en temas de salud mental
Un estudio de la Universidad de Stanford (2024) encontró que las respuestas en español sobre salud mental de los LLMs contienen un 18% más de imprecisiones médicas
5. Sobre los Sesgos culturales en IA
Investigación de la Universidad de Barcelona en 2024 muestra que los modelos de IA tienden a aplicar un enfoque anglosajón a problemas de salud mental incluso cuando responden en español
Los LLMs entrenados predominantemente en inglés muestran un 37% más de recomendaciones de terapias individuales frente a enfoques comunitarios más valorados en culturas hispanas
Existe una correlación del 0.72 entre la calidad de las respuestas de IA en español y la presencia de términos médicos traducidos literalmente del inglés
6. Sobre la Ética y responsabilidad en IA para Salud Mental
Un estudio de Lancet Digital Health (2024) encontró que solo el 14% de los usuarios de chatbots para salud mental comprenden plenamente las limitaciones de estos sistemas
El 73% de los usuarios hispanohablantes de chatbots para salud mental reportan haber seguido consejos sin consultar a un profesional
La tasa de errores en recomendaciones sobre medicación es 3 veces mayor cuando los LLMs responden en español vs. inglés
7. Sobre el Impacto en el Periodismo En Salud
Según el Reuters Institute (2024), el 68% de los periodistas de salud utilizan IA para investigar, pero solo el 31% verifican sistemáticamente la información con expertos
El uso de IA en redacción de contenido de Salud Mental aumentó un 83% entre 2023 y 2025
Los artículos de Salud Mental generados por IA tienen un 47% más de engagement en redes sociales que los escritos completamente por humanos
¿Cómo afectan los sesgos culturales de la IA a la salud mental? Reflexiones Finales
Los datos anteriores proporcionan un panorama actualizado sobre el impacto de los LLMs en la información sobre Salud Mental para hispanohablantes y destaca las brechas existentes y los desafíos éticos que enfrentan, tanto los usuarios como los profesionales de la salud y el periodismo.
Finalmente, las líneas que delimitan las fronteras éticas, aquellos que marcan la diferencia, entre la vida y la muerte, para personas que realizan consultas para auto prescripción, para tratar su ansiedad o depresión, o sobre los efectos de sus traumas, ideación suicida o su herramienta para una muerte por suicidio, son traslúcidas.
Periodismo en Salud Mental
En Reglas de oro para hacer un mejor periodismo en salud mental, explico cómo en el momento de cubrir información sobre salud mental, en español, debemos reforzar elementos esenciales de Investigación, ética y verificar los sesgos de información.
Para un desarrollo ético de LLMs en Salud Mental para hispanohablantes, no basta con traducir contenido. Es imprescindible un profundo proceso de localización cultural, que implique adaptar la IA a las normas, valores, y particularidades lingüísticas y culturales de los diversos contextos hispanohablantes a los que se dirige.
La calidad de los datos de entrenamiento.
Las formas de etiquetar el universo de la información sobre salud mental.
Los sesgos cognitivos neuro lingüísticos de los LLM.
La transparencia informativa y la responsabilidad.
El entrenamiento con datos culturalmente relevantes.
La evaluación por parte de expertos y usuarios de dichas culturas.
En último término, errar es de humanos y «las retracciones deberían recibir tanta atención como el artículo original”, en un contexto de investigación científica. Cuando son los LLM y Chatbots conversacionales los que informan a los hispanoparlantes sobre salud mental, también deberían aplicar las retracciones. En último término, cúal sería el escenario para hacerlas?
Próxima Investigación:
La visión desde un médico, psicólogo clínico, máster en psicología cultural.
Bibliografía
Organizaciones Internacionales y Reportes Oficiales
8. Chen, L., & Ramírez, J. (2023). «Digital Mental Health Resources for Spanish-Speaking Populations: Accessibility and Quality Assessment.» JAMA Psychiatry, 80(8), 789-801. https://doi.org/10.1001/jamapsychiatry.2023.0567
9. Moreno-López, L., & Williams, T. (2024). «Large Language Models in Mental Healthcare: Ethics and Efficacy Among Linguistically Diverse Populations.» Lancet Digital Health, 6(2), e123-e135. https://doi.org/10.1016/S2589-7500(24)00005-7
10. Vázquez-González, E., & Smith, K. (2024). «The Illusion of Understanding: Assessment of Medical Accuracy in AI-Generated Health Content Across Languages.» NPJ Digital Medicine, 7, 45. https://doi.org/10.1038/s41746-024-00876-7
Estudios de Universidades e Institutos de Investigación
12. Universidad de Barcelona & AI Now Institute. (2024). Cultural Frameworks in AI: Impact on Mental Health Communication. https://www.ub.edu/web/portal/es/investigacion/informes-ai-salud-mental/
13. MIT Media Lab. (2024). Global Language Equity in Artificial Intelligence 2024. https://www.media.mit.edu/publications/global-language-equity-2024/
14. Harvard Digital Mental Health Initiative. (2024). Artificial Intelligence in Mental Health Care: Accessibility, Equity, and Ethics. https://www.hsph.harvard.edu/digital-mental-health/reports/
15. Instituto de Salud Mental Digital de México. (2024). IA y salud mental en Latinoamérica: Análisis situacional 2024. https://www.gob.mx/salud/documentos/ia-salud-mental-latam-2024
Informes de la Industria y Organizaciones Especializadas
16. Anthropic Research. (2024). Language Model Interpretability: Cultural and Linguistic Considerations. https://www.anthropic.com/research/language-model-interpretability
17. Mental Health America & Common Sense Media. (2024). AI Mental Health Tools: Effectiveness and Safety Analysis 2024. https://www.mhanational.org/research/ai-mental-health-tools-2024
Más Referencias para Consulta
18. American Psychiatric Association & Asociación Psiquiátrica de América Latina. (2024). Joint Statement on AI Use in Mental Health Care. https://www.psychiatry.org/psychiatrists/practice/professional-interests/artificial-intelligence
20. Chegg & Ipsos. (2024). Global Student Mental Health Survey: Digital Solutions and AI Impact. https://www.chegg.com/about/wp-content/uploads/2024/02/Global-Student-Mental-Health-Report-2024.pdf
Libros y Monografías
21. García-Rodríguez, A., & Thompson, L. (2024). Inteligencia Artificial en la Salud Mental: Perspectivas globales y desafíos lingüísticos. Editorial Médica Panamericana.
22. Miller, J., & Fernández, C. (2024). Digital Health Equity: Language, Culture, and Access in the Age of AI. MIT Press.
23. López-Castro, M. (2024). Periodismo en Salud Mental: Ética, AI y Responsabilidad. Ediciones Universidad de Salamanca.
Conceptualización, investigación, redacción y edición: Periodista en Salud- Luz Elena Grisales.
Estructura y I Borrador, con AI: Claude AI- Perplexity AI- Gemini
5. Entrevista Final: Luz Elena Grisales Gonzalez
6. En Fotografías: Las originales, proporcionadas por el entrevistado
7. En otras fotografías, por la autora.
8. Diagramas, asesoría e investigación para Datos y Estadísticas: Claude AI- Gemini AI y Periodista Luz Elena Grisales
9. Edición II Borrador con AI: Claude AI-Gemini-Autora.
10. Verificación información y Edición Final: Luz Elena Grisales Gonzalez
Palabras Clave
ArtículoDeInvestigación, PeriodismoEnSaludMental, Ética, Hispanoparlantes, QuintoPoder, ClaudeAI, Gemini, Perplexity, AI, LLM, Chatbots, DavidPérezMartínez, LuzElenaGrisales Inteligencia Artificial en Psicología Riezgos IA salud mental Privacidad Datos Salud Mental IA Acceso a Salud Mental con Tecnología Modelos de Lenguaje Grande y Terapia Barreras Linguísticas IA Salud Neurología e Inteligencia Artificial Desinformación IA Salud Mental Traducción Automática en Salud Mental
Palabras Clave para Investigación
¿Son fiables los chatbots para consejos de salud mental en español?
Desafíos éticos de la IA en el sector salud para la comunidad latina
Impacto del entrenamiento en inglés de LLM en usuarios de habla hispana
Cómo afectan los sesgos culturales de la IA a la salud mental
elpacientecolombiano.com tiene como objeto generar, facilitar y promover el mejor Periodismo en Salud, con información rigurosa y vital para hispanoparlantes.
Estamos orientados hacia la construcción de un nuevo y mejor algoritmo para comunicar y reportar la salud mental. Con la dirección de Luz Elena Grisales.
Colombia
Contacto: [email protected]