Los modelos de inteligencia artificial generativa han revolucionado industrias con su capacidad de redactar, programar y razonar a gran velocidad. Pero detrás de esa fluidez lingüística se esconde un problema estructural: las alucinaciones. En este episodio de Cybertalks, Gustavo Aldegani analiza por qué estos sistemas inventan datos, fabrican citas y presentan errores factuales de forma convincente, y cómo esto impacta de forma crítica en sectores como la medicina, el derecho y la ciberseguridad.
Exploramos los tipos de alucinación, casos reales con consecuencias legales, y los desafíos técnicos para detectarlas. Además, discutimos estrategias de mitigación como la generación anclada (RAG), arquitecturas generador-verificador y el uso de modelos de dominio específico. ¿Pueden las empresas protegerse? ¿Qué riesgos enfrentan al integrar IA en áreas sensibles? Y sobre todo: ¿es posible construir una inteligencia artificial verdaderamente veraz?
Podchaser is the ultimate destination for podcast data, search, and discovery. Learn More