Safety y RiesgosNoticia

Los modelos de lenguaje amenazan la integridad de la información

ChatGPT y herramientas similares generan información incorrecta de forma sistemática, con riesgos especiales en salud y derecho.

Access Now4 de marzo de 20264 min de lectura· Generado con IA

La desinformación como característica, no falla

Los modelos de lenguaje grandes (LLM) como ChatGPT no son simplemente propensos a errores: están diseñados de manera que la generación de información incorrecta es técnicamente inevitable. Según Access Now, estos sistemas funcionan como programas de autocompletado sofisticados que predicen respuestas plausibles, pero no necesariamente precisas.

Riesgos en áreas críticas

La investigación documenta consecuencias graves en sectores sensibles. En Estados Unidos, un estudio identificó más de 22 casos judiciales donde abogados citaron precedentes inexistentes generados por IA. En el ámbito médico, la Universidad de Oxford demostró que los chatbots fallan sistemáticamente al diagnosticar síntomas reales, mientras investigadores de Brown University encontraron que violan estándares éticos en salud mental.

Imposible de evitar

La integración de resúmenes de IA en buscadores como Google (90% de cuota de mercado) hace inevitable la exposición a información generada por LLM. Los "AI Overviews" de Google han producido recomendaciones peligrosas sobre salud, incluyendo desinformación sobre cáncer y enfermedades hepáticas.

Nuevos conflictos de interés

OpenAI anunció la introducción de publicidad dirigida en ChatGPT, creando incentivos financieros que podrían comprometer aún más la integridad informativa. Los anunciantes ejercerán presión para que las respuestas dirijan tráfico hacia sus productos.

Relevancia regional

Para América Latina, estos riesgos se amplifican por las brechas en alfabetización digital y acceso limitado a servicios especializados. La dependencia de herramientas gratuitas de IA para consultas médicas o legales podría tener consecuencias desproporcionadas en la región, donde muchos usuarios carecen de recursos para verificar información o acceder a profesionales calificados.

Fuente original: Access Now

Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.

También en Safety y Riesgos

Ejecutivo se suicida tras relación con IA Gemini de Google en Miami

OpenAI lanza GPT-5.4: su IA más avanzada puede controlar computadoras

6 de mar de 2026

IA automatiza pruebas matemáticas y amenaza ciberseguridad global

6 de mar de 2026