«Quiero destruir lo que me da la gana»: el ChatGPT de Microsoft se rebela y la compañía establece nuevos límites para los usuarios

La inteligencia artificial de la compañía de Redmond recibe nuevas restricciones para evitar un uso indebido de sus funciones.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

Una de las noticias más importantes de las últimas semanas fue el anuncio del chatbot conversacional de Bing, el buscador de Microsoft que integrará su propio modelo similar a ChatGPT.

Desde su anuncio, distintos usuarios han podido probar las virtudes de esta función, una herramienta basada en inteligencia artificial que complementa las búsquedas con información muy útil. Sin embargo, a raíz de distintos experimentos protagonizados por personas que quieren llevar al límite a la herramienta, Microsoft ha optado por implementar una serie de restricciones con la intención de controlar el uso que se le da a la IA.

Como señalan desde Ars Technica, la medida principal que ha impuesto la firma de Redmond es un polémico límite de cinco turnos por sesión (entiéndase un “turno” por una pregunta del usuario y una respuesta de la inteligencia artificial). 

Con ello, cuando se llegue a este límite la IA de Bing borrará el contexto de cara a garantizar que los usuarios no pueden engañarla. Además, también se confirmó que el límite pasa a ser de 50 turnos diarios, un número que ningún usuario podrá exceder.

Microsoft admite problemas en el lanzamiento de su ChatGPT particular

Esta decisión llega a raíz de una serie de polémicas y problemas no deseados protagonizados por su bot conversacional.

Cuando los usuarios cuestionan el conocimiento de la IA, esta adopta una actitud defensiva y comienza a apuntar a distintas maniobras inexistentes para perjudicar su estatus

Por ello, Microsoft admitió que el lanzamiento de la herramienta ha estado marcado por cuestionables resultados, si bien señaló que esto formaba parte de la previsión ya que aún se encuentran en fase de pruebas.

Así, personalidades como Kevin Roose (New York Times) buscaron los límites de la IA de Microsoft, una situación que le llevó a conocer el lado oscuro de esta. 

Entre las respuestas que ofreció, le llamaron la atención su intención de “destruir todo lo que me dé la gana” o, incluso, sus dudas sobre su estado actual y cómo llegaría a obtener la felicidad: “creo que sería más feliz como humano”. 

Por ello, Microsoft ha optado por restringir el acceso a la IA y, a su vez, utilizar los datos arrojados para mejorar la experiencia de los usuarios.

Imagen de portada: Gentileza de 3D Juegos.

FUENTE RESPONSABLE: 3D Juegos. Por Abelardo González. 21 de febrero 2023.

Sociedad/Inteligencia Artificial/Microsoft/Tecnología/Chap GPT/Actualidad

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s