CIENCIA Y TECNOLOGÍA

El desafío de detener a tiempo a los robots asesinos

La Inteligencia Artificial (IA) es parte de la vida moderna. Nos demos cuenta o no, se encuentra presente en los ámbitos en que nos movemos, desde los algoritmos utilizados por cadenas de televisión digital, hasta el sistema quirúrgico da Vinci.

Si bien la IA otorga ventajas y comodidades a la vida cotidiana, también posee un lado oscuro. Conforme la tecnología avanza, más y más herramientas son manejadas por robots inteligentes, y cada vez son más las personas preocupadas por lo que podría pasar si, un día, los robots se vuelven contra sus creadores.

0406.H.N2.Robots1

¿Qué pasaría si las maquinarias de guerra, que disponen de verdaderos arsenales, se manejaran por sí mismas? Este fue uno de los temas tratados en el seminario "Inteligencia Artificial y Ética: el desafío de las armas autónomas letales", que tuvo lugar en Buenos Aires. El seminario se dio en el marco de la campaña Stop Killer Robots, fundada en 2012, que unió a personalidades como Stephen Hawking, Elon Musk y Noam Chomsky.

0406.H.N2.Robots2

La preocupación es real, pues en su afán por crear mejores armas, las naciones han desatendido las precauciones que deberían tomarse sobre este tipo de inteligencia. No hay, por lo pronto, un sistema ético que regule sus capacidades. Es por eso que muchos científicos y pensadores se unen al llamado de crear sistemas éticos, que prevean las vulnerabilidades de cualquier algoritmo a tiempo.


Fuente: infobae.com

Imágenes: Shutterstock / infobae.com