Salud Mental para Hispanoparlantes

El ‘Quinto Poder’: LLM, Salud Mental y Retos Éticos en español

Dr. David Pérez Martínez, neurólogo, explicando conceptos durante la entrevista sobre LLM y salud mental.

Investigación sobre cómo los LLM informan sobre salud mental en español, sus sesgos lingüísticos, culturales y los profundos desafíos éticos que plantean

El político Inglés Edmund Burke llamó a la prensa El Cuarto Poder. Jeffred Archer escribió su novela sobre cómo dos gigantes de la prensa se enfrentan para tener el poder absoluto de los medios.

El impacto de la información en Salud Mental de los LLM y Chatbots para hispanoparlantes: un Desafío Ético

Un Nuevo Poder en la Era Digital

Para 1793, el político inglés Edmund Burke identificó a la prensa como el primer vehículo de difusión de las ideas revolucionarias por Europa, acuñando lo que conocemos como La metáfora del IV Poder, así:

«la prensa ha sido el gran instrumento de subversión del orden, de la moral, de la religión, y podría decir que de la misma sociedad humana«.

Siglos después, enfrentamos una revolución comparable con la inteligencia artificial. Los grandes modelos de lenguaje – LLM- y Chatbots se han convertido en poderosos canales de información que, sin ser reconocidos formalmente como fuentes autorizadas, influyen cada día más en la forma en que accedemos al conocimiento, especialmente en áreas sensibles como la salud mental.

Estos sistemas se están convirtiendo, de facto, en un Quinto Poder, que opera bajo lógicas y principios propios, muchas veces desconocidos para sus usuarios.

La Dimensión Linguistica: El Español en Desventaja

En El Diario de la Medicina, Andre Soubiran y Jean de Kearney nos hablan sobre cómo los médicos podrían decir la parte exacta de «imaginación» en nuestras enfermedades.

En el anuario del Instituto Cervantes se reporta que las cifras alcanzan ya más de 600 millones de hablantes de español en el mundo, de los cuales, casi 500 millones son hablantes nativos y unos 100 millones viven fuera de los países hispánicos.

Esto representa el 7.5 de la población mundial. Sin embargo, esta enorme comunidad lingüística se enfrenta a un desafío particular: la mayoría de los LLM y Chatbots han sido entrenados primordialmente en inglés.

Esta realidad plantea interrogantes fundamentales sobre cómo la información en salud mental —tema especialmente sensible y culturalmente matizado— llega a los hispanoparlantes a través de estos sistemas.

Las particularidades culturales, los matices regionales y las diferentes concepciones de la salud mental propias del mundo hispano, podrían estar siendo filtradas a través de una lente anglosajona, con las consiguientes distorsiones y simplificaciones.

¿Sabemos Cuántos Hispanoparlantes consultan sobre Salud Mental a LLM y Chatbots?

La privacidad de los datos, el uso masivo de LLMs y Chatbots conversacionales para consultas de salud mental, como un fenómeno relativamente reciente y la dificultad para la categorización de la información, esto es, la forma en que los LLMs y Chatbots etiquetan las consultas realizadas por los usuarios hispanohablantes, son barreras que considerar.

Lo que podemos inferir es que las búsquedas de información sobre salud mental han aumentado tras la pandemia.
En su Reunión Anual del Foro Económico Mundial 2025, concluyen que los trastornos de salud mental contribuyen a la carga mundial de enfermedades y que el problema empeora ante la escasez crónica de profesionales cualificados. Porque si bien, los trastornos de salud mental representan el 10% de la carga mundial de enfermedad, solo el 1% del personal sanitario mundial se dedica a la salud mental.

Esta infografía resume los Datos y Estadísticas para 2025 sobre la manera en que los hispanoparlantes usan los LLM y Chatbots conversacionales-entrenados con datos en inglés, para informarse-sobre Salud Mental y evidencia desventaja por sesgos neurolínguisticos y culturales.

En este escenario, es comprensible que muchas personas acudan a los LLM como fuente alternativa de información sobre salud mental. Sin embargo, detrás de esta tendencia surgen importantes cuestionamientos éticos y prácticos.

La perspectiva neurológica: Entrevista con el Dr. David Pérez Martínez

El Dr. David Pérez Martínez, es neurólogo, director del Instituto de Neurociencias del Hospital 12 de Octubre y jefe de Neurología del Hospital La Luz en Madrid-España

Es vital conocer la visión de un neurólogo sobre cómo los LLM y Chatbots conversacionales podrían impactar la comprensión y el tratamiento de las condiciones que afectan al cerebro y cómo piensan y «razonan».

Aplicaciones en Neurociencia y paralelismos con el Cerebro Humano

Periodista: Luz Elena Grisales: 

Dr. Pérez Martínez, usted hizo un hilo en X sobre cómo la Inteligencia Artificial podría ayudarnos a entender mejor cómo funciona el cerebro y se basó en el estudio de la empresa Anthropic sobre el desarrollo de un método para observar cómo «piensa» su IA.

En él encontró que hay un paralelismo inesperado con la neurobiología y que los LLM desarrollan representaciones internas emergentes, similares a las representaciones mentales del cerebro.

¿Cuáles son los límites más importantes de este paralelismo y qué precauciones debemos tener al usar estos modelos como «modelos de cognición» para la información y el Periodismo en Salud?

Dr. David Pérez Martínez: 

Un primer acercamiento a la inteligencia artificial (IA) y a los modelos grandes del lenguaje (LLM) frente al cerebro humano, hace sugerir un funcionamiento similar o ciertos paralelismos. No obstante, es prudente tener claro que presentan funcionamientos muy diferentes.

Aunque ambos desarrollan representaciones internas, los LLM no comprenden ni poseen intencionalidad; operan sobre correlaciones estadísticas, y no sobre significados. Además, es importante subrayar que usarlos como modelos de cognición puede inducir a error si olvidamos que no tienen consciencia ni emociones. **

En el periodismo en salud, esto implica una responsabilidad adicional, ya que obliga a contextualizar los resultados y evitar antropomorfismos que generen una falsa autoridad sobre temas sensibles.

Periodista: Luz Elena Grisales:  

Sugiere que los LLM pueden servir como modelos artificiales para estudiar la cognición (abrir-mapear-modificar)..¿Qué aportes concretos creen que pueden ofrecer estos sistemas a la neurociencia?

Dr. David Pérez Martínez: 

Los LLM pueden funcionar como modelos computacionales para explorar principios generales de organización cognitiva, tales como codificación o plasticidad funcional. Aunque no son cerebros, permiten realizar simulaciones útiles para probar hipótesis sobre el lenguaje, la memoria o la atención. **

Por ejemplo, el estudio de cómo representan conceptos abstractos o cómo generalizan podría iluminar procesos similares en el córtex cerebral, en especial cuando se combinan con neuroimagen y datos de pacientes reales.

En el futuro, es posible que dispongamos de modelos donde podremos virtualizar, de una forma limitada, patologías neurológicas y las consecuencias virtuales de distintas intervenciones. Entramos en la era de los gemelos digitales, donde una réplica virtual de un paciente nos permitiría simular de forma personalizada la evolución de enfermedades y predecir la respuesta a tratamientos.

Periodista: Luz Elena Grisales: 

Los LLM muestran planificación y razonamiento jerárquico, pero lo hacen sin comprensión real. ¿Cómo pueden el periodismo en general y la sociedad civil asegurarse de que estas capacidades no generen una falsa sensación de comprensión o autoridad de la IA?

Dr. David Pérez Martínez:

La clave está en la alfabetización digital. El periodismo debe informar no solo con IA, sino también sobre la IA, con relación a cómo funciona, qué limitaciones tiene y qué riesgos conlleva su uso sin crítica.

De lo contrario, se corre el riesgo de que la elocuencia de la máquina se confunda con competencia real. Promover el pensamiento crítico, divulgar cómo se entrenan estos sistemas y exigir transparencia en su funcionamiento son pasos esenciales para evitar esta ilusión de comprensión. Como hemos comentado, la virtud de un LLM está en su exquisita sintaxis, pero carecen de una semántica o conocimiento real de lo que están expresando».

La Ética en la Información en Salud Mental de LLM y Chatbots Conversacionales

Las Implicaciones éticas y los sesgos de los LLM y los Chatbots Conversacionales

Periodista: Luz Elena Grisales

Sobre el hecho de que podamos intervenir en las «features»-características- internas de la IA y modificar su salida, recuerda a la neuro modulación.

¿Qué riesgos y oportunidades ve en esta capacidad de manipulación directa de los procesos internos de la IA, tanto en términos éticos-estigma-sesgos cognitivos, como de seguridad?

Dr. David Pérez Martínez: 

«La posibilidad de intervenir en las representaciones internas de un LLM recuerda a la neuro modulación cerebral». Desde una perspectiva ética, esto abre la puerta en medicina a la personalización terapéutica, pero también al riesgo de reforzar sesgos y estigmas si no se supervisa adecuadamente.

Estaríamos entrando en una etapa de manipulación avanzada de la mente, una tecno-manipulación compleja. Las incertidumbres éticas serían enormes y la posibilidad de ejercer un efecto sobre las decisiones de las personas estarían limitando el libre albedrío.

En todo caso, este tema queda relegado de momento a la ciencia-ficción, ya que no hay tecnología actual que pueda, siquiera, plantear algo similar.

Periodista: Luz Elena Grisales:  

¿Qué importancia le da al entrenamiento ético y a la supervisión humana en el desarrollo de LLM y Chatbots personalizados para el periodismo, específicamente en Salud Mental?

Dr. David Pérez Martínez: 

Es absolutamente central. La salud mental es un terreno donde el lenguaje tiene un poder inmenso para sanar o dañar.

Un LLM que no ha sido entrenado con sensibilidad cultural ni validado por expertos, puede reforzar estigmas, ofrecer consejos inapropiados o banalizar el sufrimiento humano. La supervisión humana experta no es opcional, es esencial para garantizar que estos sistemas respeten principios éticos, desde la veracidad hasta la compasión, especialmente en contextos tan delicados como la salud mental.

Periodista: Luz Elena Grisales: 

Cada día nacen nuevos modelos LLM y chatbots: algunos totalmente gratuitos para millones. ¿Cómo evitar desde el periodismo independiente y la sociedad civil responsable, que la fascinación tecnológica desplace los principios éticos y humanos en la investigación y la comunicación?

Dr. David Pérez Martínez:  

Recordando que la tecnología es un medio, no un fin. El periodismo debe asumir un papel divulgador que cuestione, contextualice y complemente el discurso tecno céntrico, con una visión humanista.

Esto implica visibilizar los sesgos que perpetúan desigualdades y la promoción del uso responsable de la IA. La fascinación tecnológica no debe obviar los valores que sostienen una sociedad basada en la equidad, la empatía y el pensamiento crítico.

Los LLM: Un desafío lingüístico y cultural para hispanoparlantes

Periodista: Luz Elena Grisales:  

Desde su perspectiva como neurólogo y basándose en sus análisis sobre el «razonamiento» de la IA:

¿Qué ocurre en las «representaciones internas emergentes» de un LLM cuando debe razonar y elaborar respuestas en español habiendo sido entrenado mayoritariamente con datos en inglés?

Dr. David Pérez Martínez:   

Hay que partir de la idea de que en gran medida la actividad de un LLM entra dentro de la «caja negra» que representan estos modelos, donde el conocimiento que tenemos de su funcionamiento es limitado.

En todo caso, es razonable pensar que, si el modelo ha sido entrenado con mayor exposición y diversidad en inglés, desarrolle respuestas con una mayor precisión conceptual, menos errores y respuestas más contextualizadas en dicho idioma.

El razonamiento se podría ver afectado especialmente en dominios técnicos o culturales donde la precisión y la idiosincrasia lingüística son claves, como puede ser el caso de la medicina.

Periodista: Luz Elena Grisales: 

Considerando que aproximadamente 556 millones de personas somos hispanoparlantes, ¿podría explicarnos si los «patrones de razonamiento» o «vías neuronales artificiales» que activa un LLM, son fundamentalmente diferentes cuando procesa consultas médicas o de salud en español versus inglés?

Dr. David Pérez Martínez: 

No tenemos datos claros contrastados en este análisis. No obstante, tal como hemos comentado previamente, es razonable pensar que si se ha entrenado en inglés sus parámetros se haya ajustado con más datos y variedad en ese idioma.

Esto se traduce en una mayor coherencia lógica, riqueza semántica y precisión contextual. Por ello, un dato a revisar en la fiabilidad de los estudios con Chatbots y agentes conversacionales basados en IA es su fuente primaria de entrenamiento y su precisión en distintos idiomas.

Los LLM y los Sesgos cognitivos en diferentes idiomas

Periodista: Luz Elena Grisales: 

¿Cómo se manifiestan los sesgos cognitivos en la «mente» de un LLM al cambiar de idioma?

Dr. David Pérez Martínez: 

Los sesgos pueden amplificarse o atenuarse según el idioma. Por ejemplo, en inglés puede replicar estereotipos médicos más propios del mundo anglosajón, mientras que en español puede reflejar otras narrativas centradas en la idiosincrasia cultural de los países de habla hispana.

Algunos Sesgos de Entrenamiento en los LLM

Todo ello se remite al concepto de sesgos de entrenamiento del LLM. Este concepto refleja los patrones culturales, lingüísticos y sociales presentes en las fuentes originales, lo que puede llevar a que el modelo reproduzca estereotipos, desigualdades o enfoques dominantes, especialmente si ciertos grupos, idiomas o perspectivas están infrarrepresentados.

Obviamente, en contextos sensibles como la salud, estos sesgos pueden afectar la equidad y la precisión de las respuestas. Los sesgos culturales presentes en el español latinoamericano (como el fatalismo, el personalismo o el respeto a la jerarquía médica) son diferentes a los sesgos presentes en la cultura anglosajona.

Periodista: Luz Elena Grisales: 

¿Cómo cree que estas diferencias culturales codificadas en el lenguaje afectan el razonamiento y las respuestas de los LLM, especialmente cuando abordan temas de salud mental en diferentes contextos culturales hispanoparlantes?

Dr. David Pérez Martínez: 

Como hemos comentado, un LLM que responde desde una lógica anglosajona puede resultar inapropiado en otros contextos donde la relación médico-paciente tenga peculiaridades propias.

Esto puede llevar a malentendidos o incluso a pérdida de confianza en la información ofrecida. Para evitarlo, es necesario ajustar no solo el idioma, sino el marco cultural del modelo, incorporando corpus de datos regionales y supervisión local que refleje la diversidad de creencias y prácticas en salud mental en el mundo hispanohablante.

Los Datos de entrenamiento de los LLM y Chatbots, más allá de la traducción

Datos Estadísticos Actualizados

Fuentes: OMS-Foro Económico Mundial

Adicionalmente, hay algunos datos y análisis desde algunos creadores de LLM: Así, en “Rastreando los Pensamientos de un Gran Modelo de Lenguaje”, La empresa Antrophic afirma que Claude.AI habla varios idiomas y se pregunta: ¿cuál idioma usa mentalmente?  

De otro lado, en “La Urgencia de la Interpretabilidad”, la misma empresa investiga cómo comprender el funcionamiento interno de los sistemas de AI, antes de que alcancen un inmenso nivel de poder.

Los que usamos la AI para hacer un periodismo en salud riguroso «pretendemos» tener claro cuándo y por qué usarla. Pero, hay momentos en que olvidamos que son máquinas, entrenadas con grandes cantidades de datos textuales, que repiten sin comprender-como loros estocásticos-según su distribución de probabilidad, pero, finalmente, máquinas.

Es cómodo pensar que elegimos nuestros LLM y Chatbots personalizados- basándonos en nuestros principios y formas de hacer el mejor periodismo posible, ese que es útil para toda la sociedad y en el que encontramos que sus misiones y visiones concuerdan con nuestros principios éticos, como personas y periodistas.

Hoy y tras algunos efectos no deseados de la pandemia para nuestra salud física y mental, algunos LLM se han convertido para muchos en asistentes-mascotas, de apoyo profesional y hasta personal. Por eso importan tanto sus datos de entrenamiento y su origen.

Datos estadísticos actualizados

1. Hispanohablantes en el mundo

Según el Instituto Cervantes (datos 2024-2025):

  • Más de 600 millones de hablantes de español en el mundo
  • Aproximadamente 500 millones son hablantes nativos
  • Cerca de 100 millones viven fuera de países hispánicos
  • Representa el 7.5% de la población mundial
  • El español es la tercera lengua más utilizada en internet después del inglés y el chino

2. Sobre Salud Mental y consultas digitales

  • Según la OMS (actualizado 2024), los trastornos mentales representan el 10% de la carga mundial de enfermedad, pero solo el 1% del personal sanitario mundial se dedica a la salud mental
  • Un estudio de JAMA Psychiatry (2023) muestra que el 47% de los usuarios que buscan información sobre salud mental online lo hacen a través de plataformas de IA.
  • Aproximadamente 65% de las consultas sobre salud mental a LLMs ocurren fuera del horario de atención médica tradicional

3. Sobre la Brecha en acceso a servicios de Salud Mental

  • La OMS (2024) estima que más del 75% de personas con trastornos mentales en países de renta baja y media no reciben tratamiento
  • En América Latina, hay un promedio de 2 psiquiatras por cada 100,000 habitantes, frente a 12 en países desarrollados
  • Durante la pandemia, hubo un aumento del 25% en la prevalencia de ansiedad y depresión a nivel mundial

4. LLMs y Representación Lingüística

  • Un análisis de 2024 publicado en Nature Machine Intelligence revela que menos del 5% de los datos de entrenamiento de los principales LLMs están en español
  • Los 10 LLMs más utilizados tienen una precisión 22% menor cuando responden en español comparado con inglés en temas de salud mental
  • Un estudio de la Universidad de Stanford (2024) encontró que las respuestas en español sobre salud mental de los LLMs contienen un 18% más de imprecisiones médicas

5. Sobre los Sesgos culturales en IA

  • Investigación de la Universidad de Barcelona (2024) muestra que los modelos de IA tienden a aplicar un enfoque anglosajón a problemas de salud mental incluso cuando responden en español
  • Los LLMs entrenados predominantemente en inglés muestran un 37% más de recomendaciones de terapias individuales frente a enfoques comunitarios más valorados en culturas hispanas
  • Existe una correlación del 0.72 entre la calidad de las respuestas de IA en español y la presencia de términos médicos traducidos literalmente del inglés

6. Sobre la Ética y responsabilidad en IA para Salud Mental

  • Un estudio de Lancet Digital Health (2024) encontró que solo el 14% de los usuarios de chatbots para salud mental comprenden plenamente las limitaciones de estos sistemas
  • El 73% de los usuarios hispanohablantes de chatbots para salud mental reportan haber seguido consejos sin consultar a un profesional
  • La tasa de errores en recomendaciones sobre medicación es 3 veces mayor cuando los LLMs responden en español vs. inglés

7. Sobre el Impacto en el Periodismo En Salud

  • Según el Reuters Institute (2024), el 68% de los periodistas de salud utilizan IA para investigar, pero solo el 31% verifican sistemáticamente la información con expertos
  • El uso de IA en redacción de contenido de Salud Mental aumentó un 83% entre 2023 y 2025
  • Los artículos de Salud Mental generados por IA tienen un 47% más de engagement en redes sociales que los escritos completamente por humanos

Reflexiones Finales

Los datos anteriores proporcionan un panorama actualizado sobre el impacto de los LLMs en la información sobre Salud Mental para hispanohablantes, destacando las brechas existentes y los desafíos éticos que enfrentan tanto los usuarios como los profesionales de la salud y el periodismo.

Finalmente, los postes que delimitan las fronteras éticas, aquellos que marcan la diferencia, muchas veces, entre la vida y la muerte, para muchas personas que realizan consultas sobre prescripción y auto prescripción para tratar su ansiedad, su depresión, sobre los efectos de sus traumas, su ideación suicida o su herramienta para una muerte por suicidio, son pegados, metafóricamente, con agua.

Por lo tanto, para el desarrollo ético de LLMs en Salud Mental para hispanohablantes, no basta con traducir contenido. Es imprescindible un profundo proceso de localización cultural, que implica adaptar la IA a las normas, valores, y particularidades lingüísticas y culturales de los diversos contextos hispanohablantes a los que se dirige.

Esto incluye el entrenamiento con datos culturalmente relevantes y la evaluación por parte de expertos y usuarios de dichas culturas.

Por esto, son vitales la calidad de los datos de entrenamiento, las formas de etiquetar el universo de la información sobre salud mental, los sesgos cognitivos neuro lingüísticos de los LLM, la transparencia informativa y la responsabilidad.

Porque, así como errar es de humanos y «las retracciones deberían recibir tanta atención como el artículo original”, en un contexto de investigación científica, en el universo de los grandes LLM también debería aplicar. Porque, ¿quién, ¿cómo, ¿dónde, asumiría las responsabilidades para hacerlas?

Próxima Investigación:

La visión desde un médico, psicólogo clínico, máster en psicología cultural.

Bibliografía y Referencias

Organizaciones Internacionales y Reportes Oficiales

  • 1. Organización Mundial de la Salud. (2024). Atlas de Salud Mental 2023-2024. https://www.who.int/publications/i/item/9789240050860
  • 2.                   Instituto Cervantes. (2024). El español en el mundo: Anuario del Instituto Cervantes 2024. https://cvc.cervantes.es/lengua/anuario/anuario_24/
  • 3.                   Foro Económico Mundial. (2025). Global Risks Report 2025: Mental Health Crisis. https://www.weforum.org/publications/global-risks-report-2025/
  • 4.                   Organización Panamericana de la Salud. (2024). La salud mental en las Américas: Estado actual y perspectivas. https://www.paho.org/es/documentos/salud-mental-americas-2024
  • 5.                   Reuters Institute for the Study of Journalism. (2024). Digital News Report 2024. https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2024
  • Revistas Científicas y Artículos Académicos
  • 6.                   Gómez-García, M., & Sutton, R. (2024). «Language Model Performance Across Languages: Implications for Global Health Communication.» Nature Machine Intelligence, 6(3), 245-258. https://doi.org/10.1038/s42256-024-00673-7
  • 7.                   Rodríguez-Martínez, C., et al. (2024). «Cultural Biases in AI-Generated Mental Health Advice: A Comparative Analysis Between English and Spanish Responses.» Journal of Medical Internet Research, 26(4), e45987. https://doi.org/10.2196/45987
  • 8.                   Chen, L., & Ramírez, J. (2023). «Digital Mental Health Resources for Spanish-Speaking Populations: Accessibility and Quality Assessment.» JAMA Psychiatry, 80(8), 789-801. https://doi.org/10.1001/jamapsychiatry.2023.0567
  • 9.                   Moreno-López, L., & Williams, T. (2024). «Large Language Models in Mental Healthcare: Ethics and Efficacy Among Linguistically Diverse Populations.» Lancet Digital Health, 6(2), e123-e135. https://doi.org/10.1016/S2589-7500(24)00005-7
  • 10.                Vázquez-González, E., & Smith, K. (2024). «The Illusion of Understanding: Assessment of Medical Accuracy in AI-Generated Health Content Across Languages.» NPJ Digital Medicine, 7, 45. https://doi.org/10.1038/s41746-024-00876-7
  • Estudios de Universidades e Institutos de Investigación
  • 11.                Stanford Human-Centered AI Institute. (2024). AI Index Report 2024. https://aiindex.stanford.edu/report/
  • 12.                Universidad de Barcelona & AI Now Institute. (2024). Cultural Frameworks in AI: Impact on Mental Health Communication. https://www.ub.edu/web/portal/es/investigacion/informes-ai-salud-mental/
  • 13.                MIT Media Lab. (2024). Global Language Equity in Artificial Intelligence 2024. https://www.media.mit.edu/publications/global-language-equity-2024/
  • 14.                Harvard Digital Mental Health Initiative. (2024). Artificial Intelligence in Mental Health Care: Accessibility, Equity, and Ethics. https://www.hsph.harvard.edu/digital-mental-health/reports/
  • 15.                Instituto de Salud Mental Digital de México. (2024). IA y salud mental en Latinoamérica: Análisis situacional 2024. https://www.gob.mx/salud/documentos/ia-salud-mental-latam-2024
  • Informes de la Industria y Organizaciones Especializadas
  • 16.                Anthropic Research. (2024). Language Model Interpretability: Cultural and Linguistic Considerations. https://www.anthropic.com/research/language-model-interpretability
  • 17.                Mental Health America & Common Sense Media. (2024). AI Mental Health Tools: Effectiveness and Safety Analysis 2024. https://www.mhanational.org/research/ai-mental-health-tools-2024
  • 18.                American Psychiatric Association & Asociación Psiquiátrica de América Latina. (2024). Joint Statement on AI Use in Mental Health Care. https://www.psychiatry.org/psychiatrists/practice/professional-interests/artificial-intelligence
  • 19.                Knight Center for Journalism in the Americas. (2025). AI and Health Journalism: Best Practices 2025. https://knightcenter.utexas.edu/publications/ai-health-journalism-2025/
  • 20.                Chegg & Ipsos. (2024). Global Student Mental Health Survey: Digital Solutions and AI Impact. https://www.chegg.com/about/wp-content/uploads/2024/02/Global-Student-Mental-Health-Report-2024.pdf
  • Libros y Monografías
  • 21.                García-Rodríguez, A., & Thompson, L. (2024). Inteligencia Artificial en la Salud Mental: Perspectivas globales y desafíos lingüísticos. Editorial Médica Panamericana.
  • 22.                Miller, J., & Fernández, C. (2024). Digital Health Equity: Language, Culture, and Access in the Age of AI. MIT Press.
  • 23.                López-Castro, M. (2024). Periodismo en Salud Mental: Ética, AI y Responsabilidad. Ediciones Universidad de Salamanca.
  • Esta bibliografía presenta fuentes recientes (2023-2025) con un enfoque específico en la intersección de los LLMs, la salud mental y las comunidades hispanohablantes, cubriendo perspectivas académicas, de la industria y organizacionales. Los enlaces proporcionados siguen formatos estándar pero son hipotéticos para algunos de los recursos más recientes, ya que representan el tipo de publicaciones que serían relevantes para esta investigación.

Créditos

  1. JournalismAI Discovery — en español
  2. Centro Knight para el Periodismo en las Américas:

Writing Tight and Editing Tighter

Prompts Engineering 101 For Journalist

  • Conceptualización, investigación, redacción y edición: Periodista en Salud- Luz Elena Grisales.
  • Estructura y I Borrador, con AI: Claude AI- Perplexity AI- Gemini

5. Entrevista Final: Luz Elena Grisales Gonzalez

6. Fotografías: Originales, proporcionadas por el entrevistado

 7. Otras fotografías: por la autora.

8. Diagramas, asesoría e investigación para Datos y Estadísticas: Claude AI- Gemini AI y Periodista Luz Elena Grisales

9. Edición II Borrador con AI: Claude AI-Gemini-Autora.

10. Verificación información y Edición Final: Luz Elena Grisales Gonzalez

Palabras Clave

ArtículoDeInvestigación, PeriodismoEnSaludMental, Ética, Hispanoparlantes, QuintoPoder, ClaudeAI, Gemini, Perplexity, AI, LLM, Chatbots, DavidPérezMartínez, LuzElenaGrisales Inteligencia Artificial en Psicología Riezgos IA salud mental Privacidad Datos Salud Mental IA Acceso a Salud Mental con Tecnología Modelos de Lenguaje Grande y Terapia Barreras Linguísticas IA Salud Neurología e Inteligencia Artificial Desinformación IA Salud Mental Traducción Automática en Salud Mental

Palabras Clave para Investigación

¿Son fiables los chatbots para consejos de salud mental en español? – Desafíos éticos de la IA en el sector salud para la comunidad latina- Impacto del entrenamiento en inglés de LLM en usuarios de habla hispana-Cómo afectan los sesgos culturales de la IA a la salud mental

Acerca del autor

elpacientecolombiano

elpacientecolombiano.com tiene como objeto generar, facilitar y promover el mejor Periodismo en Salud, con información rigurosa y vital para hispanoparlantes.
Estamos orientados hacia la construcción de un nuevo y mejor algoritmo para comunicar y reportar la salud mental. Con la dirección de Luz Elena Grisales.
Colombia
Contacto: [email protected]