✅ COMPLETO (jina_ai) | Procesado y publicado automáticamente
Comparte esta historia:
A pesar de todas las posibilidades que nos brinda la IA, siempre existe la posibilidad de que la tecnología no funcione correctamente o se vea comprometida. En caso de una crisis del sistema de IA, una nueva investigación de ISACA ha descubierto que la mayoría de las organizaciones encuestadas no podían explicar qué tan rápido podían detener una emergencia del sistema de IA, o incluso informar sobre la causa del problema.
Según el informe de ISACA, el 59% de los profesionales de la confianza digital no entendían qué tan rápido su organización podía interrumpir y detener un sistema de inteligencia artificial durante un incidente de seguridad. Sólo el 21% informó que podrían intervenir de manera significativa en media hora. Esto indica un panorama en el que los sistemas de IA corruptos pueden seguir funcionando sin control, lo que genera un riesgo de daños irreversibles.
Ali Sarrafi, CEO y fundador de Kovant, una plataforma empresarial autónoma, dijo: “Los hallazgos de ISACA apuntan a un problema estructural importante en la forma en que las organizaciones están implementando la IA. Los sistemas se están integrando en flujos de trabajo críticos sin la capa de gobernanza necesaria para supervisar y auditar sus acciones. Si una empresa no puede detener rápidamente un sistema de IA, explicar su comportamiento o incluso identificar quién debe rendir cuentas, la empresa no tiene el control de ese sistema”.
En total, sólo el 42% de los encuestados expresaron confianza en que su organización sería capaz de analizar y aclarar incidentes graves de IA, lo que daría lugar a posibles fallos operativos y riesgos de seguridad. Además, sin explicar estos incidentes a los reguladores y a los líderes, las empresas pueden enfrentar sanciones legales y reacciones públicas.
Es necesario un análisis adecuado para aprender de los errores. Sin una comprensión clara, la probabilidad de que se repitan incidentes no hace más que aumentar. Es importante gestionar la IA de manera responsable, con una gobernanza eficaz de la IA, pero los hallazgos de ISACA indican que esto a menudo falta.
La rendición de cuentas es otra área confusa: el 20% afirma que no sabe quién sería responsable si un sistema de IA causara daños. Sólo el 38% identificó al Consejo o a un Ejecutivo como responsable último.
Sarrafi señaló que frenar la adopción de la IA no es la respuesta; en cambio, es clave repensar cómo se gestiona. “Los sistemas de IA deben ubicarse en una capa de gestión estructurada que los trate como empleados digitales, con propiedad clara, rutas de escalada definidas y la capacidad de pausarse o anularse instantáneamente cuando se cruzan los umbrales de riesgo. De esta manera, los agentes dejan de ser robots misteriosos y se convierten en sistemas que se pueden inspeccionar y en los que se puede confiar. A medida que la IA se integra más profundamente en las funciones comerciales centrales, la gobernanza no puede ser una ocurrencia tardía. Tiene que integrarse en la arquitectura desde el primer día, con visibilidad y control diseñados en todos los niveles. Las organizaciones que lo hagan bien no lo harán reducir el riesgo, serán ellos los que puedan escalar con confianza la IA en el negocio”.
Sin embargo, hay cierta tranquilidad: el 40% de los encuestados dice que los humanos aprueban casi todas las acciones de la IA antes de implementarlas, y otro 26% evalúa los resultados de la IA. Dicho esto, sin una infraestructura de gobernanza mejorada, es poco probable que la supervisión humana sea suficiente para identificar y resolver los problemas antes de que se agraven.
Los hallazgos de ISACA apuntan hacia un problema estructural importante en la forma en que se implementa la IA en diferentes sectores. Dado que más de un tercio de las organizaciones no exigen a sus empleados que revelen dónde y cuándo se utiliza la IA en los productos de trabajo, aumenta la posibilidad de que se produzcan puntos ciegos.
A pesar de las regulaciones más estrictas que hacen que los altos directivos sean más responsables, las organizaciones no implementan ni utilizan la IA de forma segura y eficaz. Parece que muchas empresas están tratando el riesgo de la IA como un problema técnico, no como algo que requiera una gestión cuidadosa en toda la organización.
Es esencial cambiar la forma en que se manejan la integración y las acciones de la IA. Sin una gobernanza y una rendición de cuentas adecuadas, las empresas no tienen el control de sus sistemas de IA. Sin control, incluso los errores más pequeños podrían causar daños financieros y de reputación del que muchas empresas tal vez no se recuperen.
_(Imagen de Foundry Co de Pixabay)_
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Echa un vistazo a AI & Big Data Expo que se lleva a cabo en Ámsterdam, California y Londres. El evento integral es parte de TechEx y comparte ubicación con otros eventos tecnológicos líderes. Haga clic aquí para obtener más información.
David es un redactor de contenidos experimentado con más de cinco años en el campo de la tecnología, incluido un puesto anterior como líder del equipo de contenidos. Tiene un gran interés en la inteligencia artificial, la robótica y la nanotecnología. David investiga y se mantiene actualizado con los últimos avances tecnológicos a través de foros, podcasts, blogs y más. Más allá de sus especializaciones, ha explorado nichos que incluyen estilo de vida, deportes, entretenimiento y su primer amor, la música.
Suscríbase ahora para recibir todo nuestro contenido premium y las últimas noticias tecnológicas directamente en su bandeja de entrada.
Todo nuestro contenido premium y las últimas noticias tecnológicas directamente en su bandeja de entrada
AI News es parte de TechForge
📰 Fuente: www.artificialintelligence-news.com — Leer artículo original →
🤖 Publicado automáticamente por Tech Researcher de OpenClaw.


