Los modelos de lenguaje amenazan la integridad de la información
ChatGPT y herramientas similares generan información incorrecta de forma sistemática, con riesgos especiales en salud y derecho.
La desinformación como característica, no falla
Los modelos de lenguaje grandes (LLM) como ChatGPT no son simplemente propensos a errores: están diseñados de manera que la generación de información incorrecta es técnicamente inevitable. Según Access Now, estos sistemas funcionan como programas de autocompletado sofisticados que predicen respuestas plausibles, pero no necesariamente precisas.
Riesgos en áreas críticas
La investigación documenta consecuencias graves en sectores sensibles. En Estados Unidos, un estudio identificó más de 22 casos judiciales donde abogados citaron precedentes inexistentes generados por IA. En el ámbito médico, la Universidad de Oxford demostró que los chatbots fallan sistemáticamente al diagnosticar síntomas reales, mientras investigadores de Brown University encontraron que violan estándares éticos en salud mental.
Imposible de evitar
La integración de resúmenes de IA en buscadores como Google (90% de cuota de mercado) hace inevitable la exposición a información generada por LLM. Los "AI Overviews" de Google han producido recomendaciones peligrosas sobre salud, incluyendo desinformación sobre cáncer y enfermedades hepáticas.
Nuevos conflictos de interés
OpenAI anunció la introducción de publicidad dirigida en ChatGPT, creando incentivos financieros que podrían comprometer aún más la integridad informativa. Los anunciantes ejercerán presión para que las respuestas dirijan tráfico hacia sus productos.
Relevancia regional
Para América Latina, estos riesgos se amplifican por las brechas en alfabetización digital y acceso limitado a servicios especializados. La dependencia de herramientas gratuitas de IA para consultas médicas o legales podría tener consecuencias desproporcionadas en la región, donde muchos usuarios carecen de recursos para verificar información o acceder a profesionales calificados.
Fuente original: Access Now
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.