¡Hola Supercurioso! Antes de leer el artículo nos gustaría que conocieras una nueva forma de descubrir nuestro curioso mundo, ¡a través de Youtube! Tenemos un canal del que nos encantaría que formaras parte. ¡Puedes suscribirte y conocerlo aquí –> YouTube Supercurioso!

Todos hemos visto en multitud de películas cómo la Humanidad acababa exterminada por una descontrolada Inteligencia Artificial. Es por ello que un grupo de expertos ha elaborado una lista de consejos, titulada Principios Asilomar, para que la superinteligencia construida por los humanos no termine por liquidar la vida en el planeta.

¿La Humanidad exterminada por la IA? 23 consejos de los expertos para que NO ocurra

Esperamos que estos principios proporcionen el material para generar una discusión vigorosa y, además, establezcan metas aspiracionales sobre cómo el poder de la IA puede ser utilizado para mejorar la vida de todos en los próximos años“- aseguraban los organizadores de la Conferencia Beneficial AI 2017, en la que se establecieron estos principios. Gurús como el científico Stephen Hawking o el CEO de Tesla, Elon Musk, han sido algunos de los especialistas que se han involucrado en el desarrollo de esta lista de consejos que se puede dividir en tres bloques: asuntos de investigación; ética y valores; y cuestiones a largo plazo.

Asuntos de investigación:

1- La meta de las investigaciones debe de ser la de crear IA beneficiosa.

2- La financiación en investigación de IA debe de ir acompañada de fondos que sean utilizados para algunos objetivos beneficiosos: que los sistemas futuros de IA sean robustos para evitar así posibles hackeos; que la automatización no interfiera en los recursos y en los propósitos de las personas; mejorar los sistemas legales para que sean más eficientes con respecto a los riesgos de la IA; e indagar con qué conjunto de valores debe alinearse la IA y qué estatus ético y legal debería tener.

3- La conexión entre ciencia y política debe de ser saludable y constructiva.

4- La cultura de la investigación debe de basarse en la cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.

5- Los equipos que desarrollan IA deberían cooperar entre ellos para evitar que se produzcan “carreras” y atajos con respecto a los estándares de seguridad.

Fin del mundo

Ética y valores:

6- Los sistemas deberían de ser seguros durante su vida operativa y verificables según donde sean aplicables y factibles.

7- Los sistemas deben de ser transparentes, por lo que si fallan se debe de saber por qué.

8- Debe de haber transparencia judicial, de tal forma que si interviene un sistema autónomo en una decisión, se han de proporcionar explicaciones satisfactorias que puedan ser auditadas por autoridades humanas competentes.

9- Los diseñadores y constructores de IA tienen responsabilidades morales en el uso, mal uso y acciones de estos sistemas.

10- Los valores, objetivos y comportamientos de los sistemas de IA autónomos deben estar alineados con los valores humanos.

11- Los sistemas han de ser compatibles con valores humanos como la dignidad, los derechos, la libertad y la diversidad cultural.

12- Se ha de respetar la privacidad personal, de tal forma que los personas deberían poder acceder, gestionar y controlar los datos generados para que los sistemas de IA los analicen y utilicen.

13- La aplicación de IA a los datos personales no debe mermar ni la libertad real ni la libertad percibida por la gente.

14- Las tecnologías de IA deberían beneficiar al mayor número posible de personas.

15- La prosperidad económica generada por la IA debe ser compartida para beneficiar a toda la Humanidad.

16- Se debe respetar el control humano para que las personas elijan si quieren o cómo quieren delegar las decisiones a los sistemas de IA para lograr sus objetivos.

17- Los sistemas altamente avanzados de IA no deben caer en subversiones, sino que deben respetar y mejorar los procesos sociales y cívicos.

18- Se debe evitar una carrera armamentística con armas autónomas y letales.

Cuestiones a largo plazo:

19- Hay que ser precavidos, pues al no haber un consenso, se deberían evitar suposiciones sobre el límite de las capacidades que puede llegar a tener la IA del futuro.

20- Una IA avanzada es importante porque podría cambiar el transcurso de la historia de la vida en la Tierra, por lo que hay que planificarla y manejarla con los cuidados y recursos adecuados.

21- Los riesgos que suponen los sistemas de IA, especialmente los catastrofistas y los existenciales, deben estar sujetos a una planificación y mitigación acorde con el impacto esperado.

22- Los sistemas de IA diseñados para automejorarse o autorreplicarse deben de estar sujetos a estrictas normas de seguridad y control.

23- La superinteligencia solo debe desarrollarse por el bien común, según ideales éticos que beneficien a toda la Humanidad, y no solo a un estado u organización.

¿Qué te parecen todas estas normas? ¿Crees que conseguirían evitar que pereciéramos ante la Inteligencia Artifical, creada por nosotros mismos?

Si te ha interesado este artículo, lee:

– Inteligencia Artificial: ¿El fin de la humanidad?

 La manipulación de la Big Data, ¿teoría conspirativa o realidad?

Imagen: zabelin / 123RF Foto de archivo, svedoliver / 123RF Foto de archivo

Compartir

Dejar respuesta