Photo by Franck V. on Unsplash
Sentar las bases de cómo minimizar los riesgos de la inteligencia artificial (IA) a la vez que se maximicen los beneficios de ésta es una necesidad a la que los estamentos oficiales parece que empiezan a dar respuesta.
Es este, el de la innovación tecnológica y sus retos, un tema apasionante para mí, y del que ya escribí al respecto en el artículo de opinión “Inteligencia artificial y responsabilidad social corporativa”.
Necesitamos, más pronto que tarde, que se piense, se regule, se legisle y se dé respuesta a dilemas derivados de la implantación de esta tecnología cada vez más cercanos en nuestro horizonte.
Como parte de esa necesidad de respuesta, el denominado Grupo de expertos de alto nivel sobre inteligencia artificial (AI HLEG) de la Comisión Europea se ha puesto manos a la obra para elaborar un borradorde las Directrices éticas sobre IA que deberá producir un documento final este año 2019.
Estas Directrices quieren ir más allá de una simple enumeración de principios y valores esenciales, y pretenden servir de guía para su aplicación real en sistemas de IA, ofreciendo diversos niveles de abstracción.
El grupo de expertos en IA está formado por 52 representantes de la sociedad civil, la industria y la universidad, y tiene como objetivo principal asesorar a la Comisión sobre los próximos pasos que abordarán los desafíos y oportunidades a mediano y largo plazo relacionados con la IA a través de recomendaciones que se incorporarán al proceso de desarrollo de políticas, al proceso de evaluación legislativa y al desarrollo de próximas estrategias digitales.
Los expertos abogan por un enfoque de la IA centrada en el bienestar de los seres humanos pero desde la confiabilidad. Las personas deben poder confiar en la IA ya que es la única manera de que se puedan beneficiar completamente de ella, algo con lo que estoy totalmente de acuerdo.