La Inteligencia Artificial debe ser vigilada de cerca: Brad Smith de Microsoft, alerta sobre su desarrollo incontrolado

La Inteligencia Artificial debe ser vigilada de cerca: Brad Smith de Microsoft, alerta sobre su desarrollo incontrolado
3 comentarios Facebook Twitter Flipboard E-mail

Puede que a muchos les pueda sonar a broma, pero hasta no hace mucho tiempo, el miedo a la Inteligencia Artificial al ver a esta como una amenaza para la raza humana era una fobia bastante extendida. De hecho, ya lo vimos en esta charla en nuestro episodio uno de la segunda temporada de Captcha en la que vimos como es un miedo infundado.

No obstante parece que no todos lo ven así y muchos piensan que Skynet o Matrix y la revolución de las máquinas está a la vuelta de la esquina. La inteligencia artificial puede ser una amenaza y así en la Cumbre GeekWire 2019, el Presidente de Microsoft, Brad Smith, ha dado su visión, un tanto pesimista al respecto.

 ¿Es una amenaza la Inteligencia Artificial?

Smith puso como motivo de dicha visión un tanto negativa, el accidente de aviación acaecido en la zona del Estrecho de Puget, en la que un avión con pasajeros y tripulantes padeció un accidente debido a un sistema automático que no pudieron inutilizar desde cabina llegado el momento.

El software y su premisa eran magníficos, puesto que se encarga de detectar un exceso en la inclinación del aparato si esta es muy elevada, bajando el morro y disminuyendo la altura en consecuencia. El problema es que en este caso fallaron las mediciones y la tripulación en cabina no pudo desactivar el sistema con el consecuente trágico final.

Esta situación ha sido la "excusa" para Brad Smith, que justifica que el desarrollo tecnológico es elogiable, pero debe ser siempre controlado. Y en el caso de la Inteligencia Artificial y los sistemas que la incorporan, estos deben contar una especie de botón del pánico o de emergencia que permite desactivarlos.

Y que conste, no es el único caso. A nivel más terrenal y mucho más cercano a la inmensa mayoría de usuarios, tenemos los casos de atropellos a personas por parte de coches autónomos.

Inteligencia Artificial

Se trata de garantizar la primacía de las decisiones humanas en ciertos momentos y en determinadas circunstancias en las que la toma de decisiones de un sistema basado en inteligencia artificial no sea todo lo adecuado que debiese.

Brad Smith no cesó en ese punto en su crítica hacia el uso de la Inteligencia Artificial tal y como la conocemos hoy día. Toda la sociedad y toda la industria deben adquirir conciencia del camino que están tomando:

"Somos la primera generación que decidirá cómo las máquinas tomarán estas decisiones, qué tipo de principios éticos guiarán su toma de decisiones. No hay presión, pero es mejor que lo hagamos bien".

Hemos visto como hay drones y "máquinas de guerra" que ya han matado a personas de forma autónoma. Es sólo una parte del problema que hace que Smith afirma que se debe estudiar el posible riesgo de un desarrollo no controlado de la IA y el aprendizaje automático (machine learning). De hecho, ya vimos una opinión similar de manos de una ingeniera de Google.

Es un problema peliagudo. El desarrollo de una IA que en un determinado momento no pudiera incluso gestionar los propios sistemas de control impuestos por los seres humanos. El cruce de ideas y teorías está sobre la mesa y dará mucho que hablar.

Fuente | GeekWire

Comentarios cerrados
Inicio