PR Newswire
CARY, Carolina del Norte, 30 de septiembre de 2025
Las organizaciones que apuestan por una IA fiable tienen un 60% más de probabilidades de duplicar el retorno de la inversión, lo que evidencia el coste de ignorar las prácticas responsables.
CARY, Carolina del Norte, 30 de septiembre de 2025 /PRNewswire/ — SAS, líder en datos e IA, ha presentado hoy un nuevo estudio que analiza el uso, el impacto y la confianza en la IA. El informe IDC Data and AI Impact Report: The Trust Imperative, encargado por SAS, revela que los responsables de TI y negocio confían más en la IA generativa que en cualquier otra modalidad de IA.

Este estudio internacional, que analiza el uso y la adopción de la IA, revela que solamente el 40% de las empresas están invirtiendo para lograr que sus sistemas de IA sean confiables gracias a la gobernanza, explicabilidad y medidas de protección éticas. Todo esto, a pesar de que las organizaciones que priorizan la IA confiable tienen una probabilidad del 60% de duplicar el ROI de sus proyectos. Paradójicamente, entre quienes menos invierten en estas prácticas, la IA generativa (por ejemplo, ChatGPT) se percibe como 200% más fiable que la IA tradicional (como el machine learning), a pesar de que esta última es la más consolidada, estable y explicable.
“Nuestra investigación muestra una contradicción: las formas de IA con interacción humana y familiaridad social generan mayor confianza, independientemente de su fiabilidad o precisión real“, afirma Kathy Lange, directora de investigación en IA y Automatización en IDC. “Como proveedores de IA, profesionales y usuarios, debemos preguntarnos: ¿la IA generativa es realmente confiable o simplemente inspira confianza? ¿Están los líderes aplicando las salvaguardas y la gobernanza necesarias para esta tecnología emergente?“.
Más información disponible en el debate en directo de Linkedin moderado por Nicholas Thompson, CEO de The Atlantic, con la participación de SAS, Deloitte e IDC.
Informe completo disponible en el siguiente enlace: http://sas.com/ai-impact.
El estudio recoge datos en una encuesta global a 2.375 participantes realizada en Norteamérica, Latinoamérica, Europa, Oriente Medio y África, y Asia-Pacífico. Los participantes era una muestra equilibrada de profesionales de TI y responsables de negocio, que aportaron perspectivas tanto tecnológicas como empresariales.
Las tecnologías de IA emergentes generan mayor confianza
El estudio revela que las implementaciones de IA que más confianza generan son las tecnologías emergentes, como la IA generativa y los agentes de IA, por encima de las formas más consolidadas de IA. Casi la mitad de los encuestados (48%) declaró tener “plena confianza” en la IA generativa, mientras que un tercio afirmó lo mismo sobre los agentes de IA (33%). La forma menos confiable de IA es la tradicional: solo el 18% indicó tener plena confianza.
Aunque manifestaron una alta confianza en la IA generativa y agentes de IA, los encuestados expresaron su preocupación por temas como la privacidad de los datos (62%), la transparencia y explicabilidad (57%) y el uso ético (56%).
Mientras tanto, la IA cuántica empieza a generar confianza rápidamente, a pesar de que la tecnología necesaria para ejecutar la mayoría de los casos de uso aún no se ha desarrollado por completo. Casi un tercio de los decisores a nivel global afirma estar familiarizado con la IA cuántica, y un 26% declara plena confianza en esta tecnología, a pesar de que las aplicaciones reales todavía están en una fase inicial del desarrollo.
La ausencia de medidas de protección debilita el impacto de la IA… y el ROI
El estudio muestra un aumento acelerado en el uso de IA, especialmente de la IA generativa, que ha superado rápidamente a la IA tradicional tanto en visibilidad como en aplicación (81% frente a 66%). Esto ha generado nuevos riesgos y preocupaciones éticas.
En todos los países, los analistas de IDC han detectado un desajuste entre la confianza que las organizaciones dicen tener en la IA y lo confiable que es realmente la tecnología. Según el estudio, aunque casi 8 de cada 10 organizaciones (78%) afirma confiar plenamente en la IA, solo el 40% ha invertido en sistemas demostrablemente confiables mediante gobernanza, explicabilidad y medidas de protección ética.
La investigación también muestra que la implementación protección éticas no es una de las prioridades al operacionalizar proyectos de IA. Entre las tres principales prioridades organizativas, solo un 2% seleccionó el desarrollo de un marco de gobernanza de IA, y menos del 10% confesó haber desarrollado una política de IA responsable. Sin embargo, no priorizar estas medidas puede estar impidiendo que estas empresas obtengan todo el valor de sus inversiones en IA a largo plazo.
Los analistas han distinguido a los encuestados entre líderes y seguidores de IA confiable. Los líderes invirtieron más en prácticas, tecnologías y marcos de gobernanza para hacer que sus sistemas de IA fueran confiables, y parecen estar obteniendo beneficios. Estos líderes tenían 1,6 veces más probabilidades de duplicar su retorno de la inversión en sus proyectos de IA.
La falta de bases de datos sólidas y gobernanza frena la IA
A medida que los sistemas de IA se vuelven más autónomos y se integran profundamente en procesos críticos, las bases de datos también cobran mayor importancia. La calidad, diversidad y gobernanza de los datos influyen directamente en los resultados de la IA, lo que hace que las estrategias de datos enriquecidos sean esenciales para obtener beneficios (por ejemplo, ROI, mejoras de productividad) y mitigar riesgos.
El estudio identificó tres grandes obstáculos que impiden el éxito en la implementación de IA: infraestructuras de datos débiles, mala gobernanza y falta de competencias en IA. Casi la mitad (49%) de las organizaciones cita como principal barrera unas bases de datos sin centralizar o entornos de datos en la nube no optimizados. A esta preocupación le sigue la falta de procesos suficientes de gobernanza de datos (44%) y la escasez de talento cualificado en la organización (41%).
Los encuestados señalaron que el principal problema en la gestión de los datos utilizados en implementaciones de IA es la dificultad para acceder a fuentes de datos relevantes (58%). Otras preocupaciones destacadas incluyen la privacidad y el cumplimiento regulatorio (49%) y la calidad de los datos (46%).
“Por el bien de la sociedad, las organizaciones y los empleados, la confianza en la IA es imprescindible“, afirmó Bryan Harris, CTO de SAS. “Para lograrlo, la industria debe aumentar la tasa de éxito de las implementaciones, las personas deben revisar con espíritu crítico los resultados de la IA y los líderes deben capacitar a la plantilla para trabajar con esta tecnología“.
Acerca de SAS
SAS es líder mundial en datos e IA. Con el software de SAS y las soluciones específicas del sector, las organizaciones transforman los datos en decisiones fiables. SAS brinda THE POWER TO KNOW ®.
SAS Innovate 2026, una experiencia única para líderes empresariales, usuarios técnicos y socios de SAS, se celebrará del 27 al 30 de abril de 2026 en Grapevine, Texas. Visite el sitio web de SAS Innovate para obtener más información y reservar la fecha
SAS y todos los demás nombres de productos o servicios de SAS Institute Inc. son marcas registradas o marcas comerciales de SAS Institute Inc. en EE.UU. y otros países. ® indica que está registrado en los Estados Unidos. Otros nombres de marcas y productos son marcas comerciales de sus respectivas compañías. Copyright © 2024 SAS Institute Inc. Todos los derechos reservados.
Logo – https://mma.prnewswire.com/media/1250367/SAS_v1_Logo.jpg
View original content:https://www.prnewswire.com/news-releases/estudio-global-la-confianza-en-la-ia-generativa-aumenta-a-pesar-de-las-deficiencias-en-las-medidas-de-seguridad-de-la-ia-302569787.html