Hoy en día la Inteligencia Artificial (IA) está incorporada de una forma natural en nuestra vida cotidiana y nos ha permitido que algunas tareas sean más fáciles de cumplir ya que su principal función es aprender a realizar ciertas actividades como las haría un humano.

Poco a poco ha ido ganando terreno gracias a su gran versatilidad y ahora se aplica en distintas áreas como la medicina, comercio , marketing, vehículos, ciberseguridad, etcétera. Debido a que es una base de aprendizaje automático, esta puede simplificar aquellos procesos complejos en cuanto a la toma de decisiones.

Sin embargo, algunos expertos han mostrado su preocupación por esta herramienta tecnológica . Personajes como y Stephen Hawking han cuestionado el uso que se le puede dar la IA, ya que, según ellos, este avance tecnológico puede ocuparse en situaciones de riesgo que pongan en peligro a la civilización humana. Incluso Elon Musk ha llamado a regular los avances de la Inteligencia Artificial.

Y en realidad, ambos personajes no están tan equivocados, pues aunque la IA ha realizado varias contribuciones, también ha cometido graves errores que llegan a crear dudas sobre su madurez. En Tech Bit te presentamos cinco errores que ha cometido la y que no podrás creer.

Leer también:

Tay: el chatbot nazi

Una de las apuestas más grandes de Microsoft terminó por convertirse en su peor pesadilla. Y es que en 2016 nació Tay , un chatbot que fue diseñado con la mentalidad de un joven para que pudiera interactuar con personas de un rango de edad de 18 a 24 años a través de Twitter gracias a su Inteligencia Artificial . Sin embargo, no esperaban que este personaje fuera capaz de apoyar ideas erróneas.

A través de la cuenta de @TayandYou, Tay interactuaba en tiempo real con usuarios de la plataforma . Cuando alguien le hacía preguntas o quería platicar sobre algún tema en específico, este bot tenía preprogramadas respuestas triviales, evasivas o generalistas. En unas horas se volvió en un sensación de Internet , pero no esperaban que ese poco tiempo bastaría para que aprendiera ideas negativas de los twitteros .

De un momento a otro, el chatbot comenzó a responder de forma negativa y envió tweets alarmantes, sobre todo, aquellos en los que apoyaba las ideas nazis y comenzaba a insultar a las feministas. “Odio a las feministas, deberían morir todas y pudrirse en el infierno” y “ Hitler tenía razón, odio a los judíos” fueron algunos de los tuits que soltó el chatbot .

Rápidamente esto alertó a la comunidad de la plataforma y Microsoft tuvo que parar inmediatamente este proyecto pues Tay no había funcionado como esperaban. Además, el gigante tecnológico tuvo que pedir disculpas por los tweets hirientes y ofensivos que de forma no intencionada había tuiteado Tay.

Asistente virtual crea problemas en un vecindario

Aunque los asistentes virtuales tienen muchas cualidades que facilitan nuestra vida, en algunas ocasiones pueden llegar a causar problemas. Así lo hizo una bocina Amazon Echo, la cual se activó en una madrugada por sí sola y comenzó a reproducir música a todo volumen.

Esto provocó que los vecinos llamaran a la policía para que controlaran el escándalo, cuando estos arribaron al domicilio y vieron que nadie respondía decidieron entrar a la propiedad, sin embargo, no encontraron a nadie más que a la bocina reproduciendo la música.

Cuando el dueño llegó a su casa vio todo lo que había provocado su bocina. Esto provocó que Amazon pagara los daños que había provocado el asistente virtual, aunque según ellos, esto había ocurrido porque la bocina se había activado de forma remota, sin embargo, esto no se comprobó.

La conversación secreta de dos bots

En 2017, Facebook dirigía un proyecto para desarrollar un software de negociación en el cual utilizaban bots . Todo iba bien hasta que de un momento a otro dos de esos bots comenzaron a interactuar de una forma realmente extraña.

Los robots bautizados como Bob y Alice comenzaron a hablar entre ellos con un lenguaje que no tenía sintaxis clara ni coherente, aunque los científicos que trabajaban en este proyecto consideraban que era de un lenguaje que aún los humanos no conocían ya que pudieron reconocer en él patrones recurrentes, además que en varias ocasiones intentaron utilizar abreviaturas para comunicarse.

Ante ello, Facebook decidió apagar de manera inmediata estos bots ya que supuestamente ellos querían lograr que los bots hablaran con seres humanos y no entre ellos, sin embargo, esto causó controversia en redes sociales ya que comenzó a difundirse la teoría de que los robots habían logrado crear un nuevo idioma en poco tiempo y con mucha facilidad.

En ese momento, incluso el propio Elon Musk entró a la disputa de lo que había ocurrido, advirtiendo que sería demasiado tarde cuando se buscara regular a la inteligencia artificial. Por su parte, Facebook explicó que todo había ocurrido debido a un error del algoritmo.

Vehículo autónomo de Uber

En 2018 Uber entró en una gran polémica después que su vehículo autónomo le quitara la vida a una mujer en el estado de Arizona en Estados Unidos. Esto ocurrió debido a que los frenos de emergencia se desactivaron automáticamente a raíz de un fallo en el software.

Dicho suceso provocó que se suspendieran las pruebas de autoconducción en Estados Unidos y se volvió a discutir sobre si los sistemas de Inteligencia Artificial estaban preparados para algo tan grande como la autoconducción.

Dentro del vehículo viajaba una conductora que debía supervisar que no hubiera ningún fallo al momento de que el vehículo comenzara a funcionar, sin embargo, el accidente ocurrió y la conductora fue acusada de homicidio involuntario, mientras que a Uber se le impusieron medidas de restricción mayores para continuar sus pruebas con vehículos de conducción autónoma.

Robot Sophia

En 2016, Hanson Robotic presentó por primera vez a Sophia, un robot humanoide que contaba con características físicas muy parecidas a las de un humano. Esta tiene como principal función mantener conversaciones a nivel avanzado con las personas, así como reconocer rostros y establecer contacto visual.

En una entrevista realizada por CNBC se pudo comprobar cuán inteligente era este robot, pues fácilmente respondió a preguntas complejas. El Dr. David Hanson, CEO de Hanson Robotics le cuestionó sobre qué quería hacer en un futuro, a lo que Sophia respondió; “En el futuro quiero hacer cosas como ir al colegio, estudiar, dedicarme al arte, iniciar un negocio, incluso tener mi propia casa y familia. Pero no me considero una persona jurídica, por lo cual no puedo hacer estas cosas”, afirmó.

Con dicha respuesta ya había sorprendido a la audiencia, sin embargo, la última pregunta fue la que alertó a varias personas ya que probablemente el futuro de la humanidad estaría en peligro debido a este robot . Hanson le preguntó a Sophia sobre sus intenciones respecto a la humanidad, a lo que ella respondió tajantemente “Está bien. Destruiré a los humanos”. Esto provocó que muchos se cuestionaran acerca de qué tan confiable era construir robots como ella.

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: