Photo by Franck V. on Unsplash
Sentar las bases de cómo minimizar los riesgos de la inteligencia artificial (IA) a la vez que se maximicen los beneficios de ésta es una necesidad a la que los estamentos oficiales parece que empiezan a dar respuesta.
Es este, el de la innovación tecnológica y sus retos, un tema apasionante para mí, y del que ya escribí al respecto en el artículo de opinión “Inteligencia artificial y responsabilidad social corporativa”.
Necesitamos, más pronto que tarde, que se piense, se regule, se legisle y se dé respuesta a dilemas derivados de la implantación de esta tecnología cada vez más cercanos en nuestro horizonte.
Como parte de esa necesidad de respuesta, el denominado Grupo de expertos de alto nivel sobre inteligencia artificial (AI HLEG) de la Comisión Europea se ha puesto manos a la obra para elaborar un borradorde las Directrices éticas sobre IA que deberá producir un documento final este año 2019.
Estas Directrices quieren ir más allá de una simple enumeración de principios y valores esenciales, y pretenden servir de guía para su aplicación real en sistemas de IA, ofreciendo diversos niveles de abstracción.
El grupo de expertos en IA está formado por 52 representantes de la sociedad civil, la industria y la universidad, y tiene como objetivo principal asesorar a la Comisión sobre los próximos pasos que abordarán los desafíos y oportunidades a mediano y largo plazo relacionados con la IA a través de recomendaciones que se incorporarán al proceso de desarrollo de políticas, al proceso de evaluación legislativa y al desarrollo de próximas estrategias digitales.
Los expertos abogan por un enfoque de la IA centrada en el bienestar de los seres humanos pero desde la confiabilidad. Las personas deben poder confiar en la IA ya que es la única manera de que se puedan beneficiar completamente de ella, algo con lo que estoy totalmente de acuerdo.
En las relaciones humanas, la confianza es clave para llegar a conseguir un mutuo beneficio para todas las partes en la situación que sea (por ejemplo, comprar, vender, negociar, etc.), y no lo va a ser menos si en lugar de tratar con personas lo estamos haciendo con máquinas o software dirigidos por algoritmos que no podemos tocar, que en muchos casos son opacos a nuestros ojos en cuanto a su funcionamiento, y que van a jugar un enorme papel en nuestras vidas en poco tiempo.
A continuación expondré algunos puntos que son considerados por los expertos como principales a la hora de debatir sobre la IA, su relación con los seres humanos y la confianza de éstos en ella.
Componentes de la inteligencia artificial confiable.
La confiabilidad manifestada por los expertos incluye la confianza en la tecnología, (a través de la forma en que está construida y utilizada por los seres humanos), la confianza en las reglas, leyes y normas que rigen la IA, y la confianza en los modelos de negocios de los servicios, productos, y fabricantes de IA.
Además, se entenderá como IA confiable aquella que cumpla dos premisas concretas:
- Deberá respetar los derechos fundamentales, las leyes vigentes y los principios y valores esenciales, de manera que se garantice un “fin ético”.
- Deberá ser fiable y sólida técnicamente hablando, ya que un escaso dominio tecnológico puede provocar daños involuntarios, aunque las intenciones sean buenas.
Las dos premisas anteriores se traducen en diversos requerimientos que deben de cumplirse.
Por ejemplo, uno de los requerimientos esenciales (los expertos los ponen en el borrador en un orden alfabético para remarcar la importancia de todos ellos) es el diseño para todos.
Nota: Artículo inicialmente publicado en Compromiso Empresarial. Para seguir leyendo clique aquí.