ética, confianza, innovación, inteligencia artificial, sostenibilidad, tendencias

Más de la mitad de la sociedad desconfía de la inteligencia artificial

Foto de Andy Kelly en Unsplash

La Inteligencia Artificial (IA) está revolucionando la forma en que vivimos y trabajamos, ofreciendo promesas de innovación y eficiencia sin precedentes, pero también suscita preocupaciones sobre la confianza en su uso. Informes recientes han tratado la percepción pública de esta tecnología y develado cómo la confianza en ella se ha convertido en un tema crucial en la era de la automatización y la digitalización.

A medida que se reconocen los numerosos beneficios potenciales y reales para las personas, las organizaciones y la sociedad en general, la inversión en IA continúa en constante crecimiento en todos los sectores y organizaciones de distinto tipo están aprovechando las capacidades que brinda para mejorar la predicción, optimizar productos y servicios, fomentar la innovación, incrementar la productividad y eficiencia, y reducir costos, entre otras aplicaciones beneficiosas.

Sin embargo, ha surgido a la vez una creciente preocupación debido a casos notorios de uso sesgado, discriminatorio, manipulador, ilegal o violatorio de los derechos humanos de la IA. 

Para asegurar que se aprovechen plenamente las ventajas de la IA y se obtengan rendimientos de las inversiones en estas tecnologías, es esencial mantener la confianza de los ciudadanos, que deben tener la seguridad de que la IA se desarrolla y utiliza de manera responsable y confiable, siempre con el fin de asegurar un beneficio real y sostenible para la sociedad.

Al respecto de todo esto, se han publicado dos documentos que tratan de arrojar luz a la actual situación de la IA y cuyos resultados vamos a desgranar.

El primero de ellos es el estudio de KPMG “Trust in Artificial Intelligence: A global study”, que examina en profundidad la confianza y las actitudes del público hacia el uso de la IA, y las expectativas de la gestión y el gobierno de la IA en todo el mundo.

Por su parte, “The AI Index Report” del Human-Centered Artificial Intelligence de la Universidad de Stanford es un extensísimo informe que se encuentra ya en su sexta edición y pretende proporcionar datos imparciales, rigurosamente verificados y de amplia procedencia para que los responsables políticos, investigadores, ejecutivos, periodistas y el público en general adquieran un conocimiento más profundo y matizado del complejo campo de la IA. 

Confiar en la IA es algo contextual y depende del caso de uso

Según los datos, la mayoría de las personas desconfían de los sistemas de IA y tienen una aceptación baja o moderada de ella, aunque la confianza y la aceptación dependen de la aplicación de la IA. 

En todos los países, tres de cada cinco personas (61%) desconfían de los sistemas de IA, ya sea por ambivalencia o por falta de voluntad para confiar, y sólo la mitad cree que los beneficios superan a los riesgos

La confianza es especialmente baja en Finlandia y Japón, donde menos de una cuarta parte de la gente dice confiar en la IA. Por el contrario, los ciudadanos chinos son los que tienen una opinión más positiva de los productos y servicios de la inteligencia artificial, y en las economías emergentes de Brasil, India, China y Sudáfrica (BICS2) se registran los niveles de confianza más elevados, con una mayoría de personas que confían en los sistemas de IA. 

La gente confía más en que los sistemas de IA produzcan resultados precisos y fiables y proporcionen servicios útiles, y se muestra más escéptica sobre la seguridad y equidad de los sistemas de IA y sobre el grado en que respetan los derechos de privacidad, percibiendo la ciberseguridad como el principal riesgo a nivel mundial de esa tecnología. 

De las aplicaciones examinadas, los ciudadanos suelen confiar y aceptar menos la IA en el ámbito de los recursos humanos (por ejemplo, para ayudar a tomar decisiones sobre contratación y ascensos), y confían más en ella en el ámbito sanitario (por ejemplo, para ayudar al diagnóstico y el tratamiento médicos).

En cuanto a edades y dedicación, son las generaciones más jóvenes, los universitarios y los directivos quienes confían más en la IA, la aceptan mejor y, en general, tienen actitudes más positivas hacia ella.

Por último, el mal uso ético de la IA es una de las principales preocupaciones de personas de cualquier edad al respecto de esta tecnología. Según la base de datos de la AIAAIC (por las siglas en inglés de “Incidentes y polémicas sobre algoritmos y automatización”) que hace un seguimiento de los incidentes relacionados con el mal uso ético de la IA, el número de incidentes y controversias relacionados con la IA se ha multiplicado por 26 desde 2012. 

¿Quién y cómo debería desarrollar la IA?

La confianza de los ciudadanos en el desarrollo, uso y gobierno de la IA se inclina hacia las universidades, instituciones de investigación y organizaciones de defensa nacionales (76-82% de confianza), mientras que los gobiernos y las organizaciones comerciales generan menos confianza. 

En la actualidad, la industria privada ha relevado al mundo académico en la creación de los modelos de aprendizaje automático. En 2022 existían treinta y dos modelos de aprendizaje automático importantes producidos por la industria, frente a solo tres producidos por el mundo académico. 

Lo anterior se debe a que la creación de sistemas de IA de última generación requiere cada vez más grandes cantidades de datos, potencia informática y dinero, recursos que los actores de la industria poseen inherentemente en mayor cantidad en comparación con las empresas sin ánimo de lucro y el mundo académico.

Según los estudios, un tercio de la población expresa falta de confianza en que los gobiernos y las empresas regulen y utilicen la IA de manera adecuada, lo cual es preocupante dado el creciente papel que desempeñan en este ámbito. También, la mayoría de las personas (61%) percibe que el impacto a largo plazo de la IA en la sociedad es incierto e impredecible.

Por tanto, y a excepción de en la India, hay un consenso general en la necesidad de alguna forma de supervisión externa e independiente en la regulación de la IA y ya que se consideran inadecuadas las regulaciones y salvaguardias actuales. 

Existe también un amplio apoyo a diversas formas de regulación, que incluyen la regulación gubernamental y de otros reguladores ya existentes, la creación de un regulador independiente especializado en IA, así como la corregulación y regulación de la industria. 

Para la sociedad, cada uno de los Principios de la IA confiable propuestos originalmente por la Comisión son considerados como muy necesarios para la confianza en el desarrollo de esta tecnología, siendo la privacidad de los datos, la seguridad y la gobernanza los más importantes en todos ellos.

Se necesita más conocimiento de la IA para aumentar la confianza y generar una oferta de profesionales adecuada

En cuanto a conocimiento de la IA, el 82% de la gente dice que la conoce, pero una de cada dos personas afirma no entenderla, ni cuándo ni cómo se utiliza. Las personas que conocen mejor la IA tienen más probabilidades de confiar en ella y aceptarla, y perciben mayores beneficios de su uso, lo que sugiere que comprenderla sienta las bases de la confianza.

La mayoría de la gente de todos los países (82%) quiere saber más sobre la IA, unos resultados que sugieren una gran necesidad y apetito por la educación pública sobre la esta tecnología. Al respecto de su utilización, y con datos exclusivamente de EE.UU., la demanda de competencias profesionales relacionadas con la IA está aumentando en prácticamente todos los sectores industriales del país, lo cual puede ser extrapolable a la mayoría de países desarrollados.

El debate sobre los puestos de trabajo que la IA puede eliminar o crear ha sido también contemplado en los informes de KPMG y la Universidad de Stanford. Se estima que cerca de la mitad de la sociedad cree que la IA mejorará su competencia y autonomía en el trabajo, pero sólo menos de una de cada tres personas cree que la IA creará más puestos de trabajo de los que eliminará. 

Por su parte, la mayoría de los directivos cree que la IA creará puestos de trabajo ya que éstos se sienten más cómodos, confían más y apoyan más su uso en el trabajo que otros empleados, al contrario que los trabajadores manuales. 

Dado que los directivos suelen ser los impulsores de la adopción de la IA en las empresas, es muy posible que estas opiniones divergentes puedan provocar tensiones en la implantación de la IA en el trabajo

Por último, en cuanto a la opción preferida de trabajo, la mayoría de la gente estima que debería ser un 25%-75% o un 50%-50% de colaboración entre la IA y el ser humano, conservando éste el control en mayor o menor medida, lo cual indica una clara preferencia por el uso de la IA como ayuda en la toma de decisiones, y una falta de apoyo a la toma de decisiones totalmente automatizada con IA en el trabajo.

Nota: este artículo fue previamente publicado en Revista Haz el 24-4-23.

Estándar

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.