Microsoft ha retirado una potente IA que reconocía emociones humanas: estas son las razones que dan para hacerlo.

Si deseas profundizar sobre esta entrada; cliquea por favor donde se encuentra escrito en azul. Muchas gracias.

La Inteligencia Artificial está evolucionando a pasos agigantados. Desde la supuesta IA de Google que tiene sentimientos, a ahora la tecnología de Microsoft que puede reconocer el estado emocional. Pero Microsoft ha querido adelantarse, regulando este tipo de tecnologías, restringiendo el acceso a estos servicios de reconocimientos facial avanzados.

Estas normas que ha establecido la compañía con sus tecnologías tienen como objetivo que existan buenas prácticas en torno a ello. Esto quiere decir que se usen siempre con responsabilidad y dentro de un marco ético adecuado.

Se necesitan ganar a la sociedad completamente

Estas medidas han sido presentadas por Natasha Crampton que es la directora responsable de la IA de Microsoft. En este caso, reconoce que es necesario establecer serias normas de uso sobre esta tecnología para poder ganarse la confianza de la sociedad. Esto se ha traducido de manera interna en una restricción a los clientes a acceder, por ejemplo, a una inteligencia artificial específica que reconoce emociones.

A priori esta tecnología realmente interesante, ya que con una IA se podría llegar a reconocer si una persona está triste o feliz al momento. Pero esto es algo que va a quedar ahora completamente restringido con el objetivo de que desaparezca. Igualmente la empresa afirma que también va a bloquear el hecho de que se pueda determinar el género, la edad, el peinado o un maquillaje de una persona a través de un simple algoritmo.

De esta manera, Microsoft ahora tiene que ir refinando sus políticas y aprendiendo de las experiencia de sus productos. Es importante que se termine imponiendo una política ética dentro de las grandes tecnológicas para que tengan el mejor control posible sobre todos los resultados que van generando con sus productos. Y sin duda es algo que también se debe aplicar en el resto de desarrolladores, como por ejemplo Google AI.

Aparte de esto, en la nota también se reconoce que puede llegar a crearse una desigualdad por culpa de las IA. Esto se debe a que diferentes estudios han probado que en las pruebas de la tecnología para pasar de voz a texto se produce una mayor tasa de error en las comunidades afroamericanas que en usuarios blancos. Esto hace que Microsoft se planteara que las pruebas realizadas por ellos mismos para el desarrollo no contaron con la riqueza cultural que tiene el mundo. Y es por ello, que han tenido que volver a implementar varias políticas de ética con el objetivo de ser los más justos posibles.

Imagen de portada: Gentileza de Pinterest

FUENTE RESPONSABLE: Genbeta Desarrolladores. Por José Alberto Lizana. Junio 2022

Sociedad/Ciencia/Inteligencia Artificial/Microsoft/Actualidad

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s