Inteligencia Artificial. Un nuevo mapa interactivo permite seguir la Ruska en Finlandia.

Si deseas profundizar esta entrada; cliquea por favor donde este escrito en color “azul”.

En septiembre empieza un verdadero espectáculo natural en Finlandia: la ruska o follaje otoñal, que se desplaza de norte a sur a una velocidad de 500 km en tan solo dos semanas. Aunque varía de año en año según las condiciones climáticas, suele suceder la segunda semana de septiembre y dura aproximadamente diez días, alargándose hasta principios de octubre en el sur del país. Para controlar el avance de la ruska y saber cuándo y dónde observarla, Visit Finland ha lanzado un mapa de follaje otoñal en directo gracias a la Inteligencia Artificial (IA).

INTELIGENCIA ARTIFICIAL PARA OBSERVAR LA RUSKA

«El comportamiento de la ruska se pronostica con ayuda de la Inteligencia Artificial (IA) obteniendo unos resultados bastante precisos que se vuelcan en un sencillo mapa donde los usuarios pueden ver cómo evolucionará”, apunta Heli Jiménez, Directora de Marketing Internacional y Relaciones Públicas de Business Finland, en una nota de prensa.

El usuario puede posicionar el cursor encima de cada destino de Finlandia y saber qué día empieza y acaba el follaje otoñal en esa zona y de qué colores estarán los árboles en ese momento. Para que esto sea posible, «el servicio utiliza datos de fuentes como las cámaras de carretera de toda Finlandia para trazar con precisión el progreso de la ruska durante los meses de otoño. La IA procesa y refina la información y, con la ayuda de los informes meteorológicos, crea una guía visual en tiempo real de las etapas del otoño desde Hanko, en el sur, hasta Enontekiö, en el norte». añade Heli Jiménez.

Asimismo, la página web cuenta con información relevante para mejorar la experiencia: más allá de los mejores lugares para observarla, explica cómo se da este fenómeno, qué clima se encontrará el visitante o qué llevar en la mochila mientras se practica el Ruskaretki, el término con el que se conoce la excursión o caminata que se realiza en la ciudad, los bosques o colinas para admirar los impresionantes colores del otoño, ya sea durante dos horas o dos semanas.

RUSKARETKI EN EL CAMPO O EN LA CIUDAD

Los finlandeses aprovechan estos días para salir a observar el fenómeno, que ocurre cuando el clima frío y la disminución de la luz natural detienen el proceso de fotosíntesis en los árboles, plantas y arbustos. La disolución de la hoja perenne en sus hojas da lugar a los espectaculares colores de la ruska, palabra que tiene su origen en el término ruške de los sámi de Inari y en el término ruški de los sámi del norte. También es similar a la palabra finesa ruskea que significa marrón.

Ruska

FOTO: Harry  TARVAINEN

Sea cual sea el lugar de Finlandia al que vaya a hacer un ruskaretki, Visit Finland recomienda acercarse hasta un lugar abierto que permita observar los árboles de lejos, así como las alfombras que crean las hojas caídas en el suelo. Para mejorar la experiencia, también aconsejan tener en cuenta que en septiembre la temperatura puede pasar de los 20ºC a los 10ºC, por lo que es necesario llevar capas para poder quitarse y ponerse según el momento del día, calzado impermeable y chaqueta.

Imagen de portada: Ruska. Finlandia.

FUENTE RESPONSABLE: National Geographic en Español. Por Meritxell Batlle Cardona. 5 de septiembre de 2022.

Sociedad y Cultura/Inteligencia Artificial/Mapa interactivo/Finlandia.

 

Google desarrolla app para que los usuarios puedan interactuar con LaMDA, la inteligencia artificial que “cobró consciencia”.

Si deseas profundizar en esta entrada; cliquea donde se encuentra escrito en “azul”.

¿Existe una Inteligencia Artificial que cobró consciencia? Eso es lo que dice un ingeniero de Google llamado Blake Lemoine sobre LaMDA (Language Model for Dialogue Applications). En principio fue tildado de “loco” y hasta lo llegaron a separar de su puesto de trabajo. Pero ahora, desde el gigante de Mountain View comenzaron a desarrollar una app para que interactúe con este mecanismo.

Con esta acción, Google no le da un espaldarazo a su ingeniero. Tampoco confirma que la Inteligencia Artificial haya cobrado consciencia o que este modelo sea un ser sintiente.

Lo que hacen desde la compañía es aprovechar el servicio de chatbot que ya tenían con LaMDA y lo explotan al añadirle una interacción más eficaz con los usuarios a través del desarrollo de una nueva aplicación.

De acuerdo con lo que reseña El Español la aplicación se llama AI Test Chicken y ya había sido presentada a principios de este 2022, en el evento Google I/O.

Tweet

Ver Tweets nuevos

Conversación

Sundar Pichai

@sundarpichai

As we shared at #GoogleIO, the first 3 demos in our #AITestKitchen offer a way to experience and give feedback on our language model LaMDA. We’re now gradually rolling out access to small groups of users in the US.

Traducido del inglés al

Como compartimos en #GoogleIO , las primeras 3 demostraciones en nuestro #AITestKitchen ofrecen una forma de experimentar y dar retroalimentación sobre nuestro modelo de lenguaje LaMDA. Ahora estamos implementando gradualmente el acceso a pequeños grupos de usuarios en los EE. UU.

blog.googleJoin us in the AI Test Kitchen

We’re launching 3 LaMDA demos in the AI Test Kitchen, a new app where you can experience emerging AI technologies.

5:45 p. m. · 25 ago. 2022·Twitter Web App

La app para interactuar con la Inteligencia Artificial

El portal citado informa que la aplicación ya se encuentra en modo prueba y comenzará a ser lanzada para implementarse “gradualmente en pequeños grupos de usuarios en EE.UU” que podrán hablar con el chatbot.

Primero llegará para Android y posteriormente a iOS. Sus primeras demostraciones apuntan a “un conjunto rotativo de demostraciones experimentales” que servirán para que los usuarios sepan lo que “se está haciendo posible con la IA de manera responsable”.

Las tres herramientas que Google pone a disposición en esta app para la interacción con LaMDA se llaman Imagine It, List It y Talk About It.

En la primera puedes mencionar un sitio y la IA muestra los caminos según la información que haya en Internet. Con la segunda le indicas un objetivo que quieras lograr, como por ejemplo aumentar músculos, y el modelo de lenguaje te hace un listado con subtareas útiles.

Mientras que la última, Talk About It, podrás desarrollar una conversación abierta con el chatbot solo sobre perros.

Imagen de portada: Inteligencia artificial (Yuichiro Chino/Getty Images)

FUENTE RESPONSABLE: Fayer Wayer. Por Alberto Sandoval. 2 de septiembre 2022.

Google/Internet/App/Inteligencia Artificial/Tecnología/Aplicaciones.

Esta obra generada por inteligencia artificial ganó un concurso de arte: los jueces no sabían que era “Midjourney”.

Un artista digital llamado Jason Allen ganó la semana pasada la Feria Estatal de Colorado (EE.UU.) en la categoría de Artes Digitales y Fotografía con Edición Digital. Había presentado varias obras al concurso, y una de ellas (‘Theatre D’Opera Spatial’) obtuvo el primer puesto.

Si deseas profundizar en esta entrada; cliquea donde se encuentra escrito en “azul”.

Esto no habría tenido ninguna relevancia (no fuera del estado de Colorado, al menos) si Allen no hubiera publicado, en cuanto se enteró, un mensaje en el servidor de Discord de Midjourney, en el que explicaba cómo había usado esa IA generativa para crear las imágenes que presentó al concurso, tras haberlas ampliado e impreso en sus correspondientes lienzos.

Obviamente, la victoria del ‘teatro de ópera espacial’ de Allen generó inmediatamente un agitado debate sobre qué es el arte y qué significa ser un artista (o, más bien, cuánto futuro le queda a los artistas ahora que la IA ha irrumpido como un elefante en su cacharrería particular), así como sobre la equidad del concurso, pues varios usuarios de Twitter pudieron comprobar, tras ponerse en contacto con ellos, que los jueces no tenían ni idea del origen de la imagen.

A estas alturas, el siguiente tuit ya suma casi 5000 ‘me gusta’ con su opinión sobre este caso:

«Estamos viendo cómo muere el arte ante nuestros ojos: si los trabajos creativos no están a salvo de las máquinas, incluso los trabajos altamente calificados corren el peligro de volverse obsoletos. ¿Qué tendremos entonces?»

Hilo

Ver Tweets nuevos

Conversación

Genel Jumalon Nan Desu Kan

@GenelJumalon

TL;DR — Someone entered an art competition with an AI-generated piece and won the first prize. Yeah that’s pretty fucking shitty.

Traducido del inglés al

TL;DR: alguien participó en un concurso de arte con una pieza generada por IA y ganó el primer premio. Sí, eso es bastante jodidamente jodido.

1:29 p. m. · 30 ago. 2022·Twitter Web App

12,8 mil Retweets

3.511 Tweets citados

87,9 mil Me gusta

Pero Allen no está de acuerdo con esta postura. De hecho, la considera «hipócrita» por despreciar al elemento humano implicado en la creación de su obra: «yo genero imágenes usando Midjourney, hago correcciones usando Photoshop y recurro a Gigapixel para ampliar».

Además, según señala, incluso la parte de ‘generar imágenes con Midjourney’ esconde mucho más detrás, pues requiere elegir el ‘prompt’ (entrada de texto) correcto para lograr el resultado buscado, con muchas tandas de prueba y error, y de selección y ajuste de las imágenes generadas.

Pero Allen tuvo que defenderse de las críticas no sólo en Twitter, sino incluso en el propio Discord de Midjourney:

«Entonces, ¿estáis juzgando el arte o el método por el cual creamos el arte? ¿Qué pasaría si lo enfocáramos desde el otro extremo: si un artista hiciera frente a una serie de restricciones tremendamente difíciles y complicadas para crear una pieza, como pintar mientras cuelga boca abajo y alguien le va azotando (esto es extremo, lo sé)».

«¿Debería el trabajo de este artista ser evaluado de manera diferente a otro artista que creó la misma pieza «normalmente»? Sé cómo terminará esto: simplemente terminarán creando una categoría de «arte de inteligencia artificial» para cosas como esta».

Sobre las críticas por hacer ‘trampa’, alega que dejó muy claro al presentar el trabajo que el autor era «Jason Allen usando Midjourney» (otra cosa, claro, es que los jueces no tuvieran ni idea de qué era ese tal Midjourney). Y señala que lo ocurrido no le ha disuadido de proseguir su labor, sino todo lo contrario: «Esta victoria sólo ha envalentonado mi misión».

Imagen de portada: Obra premiada por Jason Allen

FUENTE RESPONSABLE: Genbeta. Por Marcos Merino. 1° de septiembre 2022.

Sociedad y Cultura/Actualidad/Arte/Concurso/Inteligencia Artificial.

 

Qué es y qué no es inteligencia artificial.

Si deseas profundizar en esta entrada; cliquea donde se encuentra escrito en “azul”.

En los últimos años el término inteligencia artificial y todo lo que tiene que ver con ello está adquiriendo un gran protagonismo y sobredimensionamiento. La expresión inteligencia artificial está siendo abusada y utilizada de forma básicamente incorrecta diariamente y en múltiples ámbitos cotidianos, desde el político al empresarial.

¿Existen realmente máquinas inteligentes, similares a las personas? Si respondemos a esta pregunta con cierto rigor, desde las bases de las ciencias fundamentales que soportan los pilares de este área –matemáticas y física–, la respuesta es que no. Y muchos científicos conjeturan y argumentan seriamente que probablemente nunca existirán.

Computar no es lo mismo que pensar

Alan Turing.

Alan Turing diseñó el bombe, un dispositivo empleado por Reino Unido para descodificar los mensajes cifrados por la máquina alemana Enigma durante la Segunda Guerra Mundial.

Partamos de las áreas de conocimiento adyacentes a las matemáticas y la física que se expandieron desde los años 30 y 40 del siglo XX, como la ciencia de la computación, la electrónica, la automática o el propio área de inteligencia artificial.

En el año 1937 vieron la luz dos publicaciones científicas de enorme importancia: la primera, Sobre los números computables, con una aplicación al Entscheidungsproblem del matemático Alan Turing, y la segunda, Análisis simbólico de relés y circuitos de conmutación, del matemático e ingeniero electrónico Claude Shannon. Estos trabajos fundaron la forma inicial de crear máquinas electrónicas capaces de computar, manejar información y manipular símbolos mediante programación algorítmica.

Sin embargo, la inteligencia artificial, entendida como aquella que pretende replicar capacidades intelectuales similares a animales o personas (llamada inteligencia general o inteligencia fuerte) no se ha demostrado en absoluto. Esto es: no hay evidencia ni matemática, ni física, ni se conoce la existencia de ningún prototipo equivalente a las capacidades pensantes de un cerebro humano.

Decisión vs. elección

En 1966 el matemático y profesor de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum creó en su laboratorio un programa llamado ELIZA capaz de realizar procesamiento de lenguaje natural.

Joseph Weizenbaum, creador de ELIZA. Ulrich Hansen / Wikimedia Commons, CC BY-SA

Ejemplo de conversación con ELIZA.

Esta sencilla herramienta reconocía palabras clave en las frases del usuario para elegir una frase modelo de su base de datos con la que contestar.

ELIZA era capaz de entablar una conversación con seres humanos simulando a una psicóloga empática. Weizenbaum modeló su estilo de conversación como preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con la terapeuta, y le sorprendió que su programa fuera tomado en serio por muchos usuarios.

A la vista de que gran número de admiradores consideraron el programa como verdadero precursor de las máquinas pensantes, el propio autor se vio obligado a dejar claro que consideraba esta interpretación totalmente errónea e intentó vehementemente corregir en sus intervenciones posteriores estas ideas.

Entre otros muchos escritos, Weizenbaum publicó en 1976 el libro El poder informático y la razón humana: del juicio al cálculo. Con él trataba de explicar al público en general su trabajo y sus consecuencias desde la filosofía de la ciencia, sin incluir turbadoras fórmulas matemáticas en el texto.

En el libro, el autor distingue entre las capacidades de los computadores y el razonamiento humano, y establece una distinción crucial entre decidir y elegir. Lo mismo que en la automática la decisión y control de un proceso industrial se implementa con un circuito o un computador como controlador programado de dicho proceso, Weizenbaum explica que decidir es una actividad computacional, algo que en última instancia puede programarse y, sin embargo, la elección es el producto del juicio, no del cálculo.

El papel de la mecánica cuántica

En 1989, el físico, matemático y Premio Nobel en el año 2020 Roger Penrose publicó su influyente libro La nueva mente del emperador en el que demuestra que el pensamiento humano no es básicamente algorítmico.

Roger Penrose. Festival della Scienza / Cirone Musi / Flickr, CC BY-SA

A caballo entre las matemáticas, la filosofía de la ciencia y la física, el texto incorpora tanto demostraciones matemáticas como ilustradas discusiones de los famosos exámenes de inteligencia (como el test de Turing y el experimento de la habitación china). Además conjetura la posible necesidad de las leyes de la mecánica cuántica para poder explicar correctamente nuestras mentes.

La obra fue devastadora para la tradicional inteligencia artificial fuerte. Inspiró contestaciones de múltiples autores en diversas áreas de conocimiento, pero sus tesis no pudieron ser refutadas convincentemente.

Penrose avanzó aún más en sus ideas con el segundo de sus libros sobre la conciencia humana, publicado en 1994: Las sombras de la mente. En él incluye una propuesta detallada sobre cómo podrían implementarse esos procesos cuánticos en el cerebro.

Las nuevas conjeturas, en colaboración con la biología y la neurociencia médica sugeridas por Penrose, incluyen en particular el citoesqueleto de las neuronas. En concreto los microtúbulos, importantes componentes del citoesqueleto, son lugares plausibles para el procesamiento cuántico y, en última instancia, para la conciencia.

Estas ideas pueden perfectamente ser incorrectas, tal y como el propio Penrose argumenta. Muchos investigadores multidisciplinares en estos campos intentaron refutar parte de estas propuestas, pero actualmente siguen en vigor.

Sin inteligencia artificial a la vista

Desde un punto de vista global, sabemos que se han estudiado múltiples enfoques desde hace décadas para tratar de expandir la inteligencia artificial. Las redes neuronales, los sistemas expertos, la lógica fuzzy y en los últimos tiempos el deep learning y el big data han dado lugar a útiles herramientas para resolver problemas con fines específicos.

Estas herramientas pueden ser impresionantes, pero debemos tener muy claro que no nos hemos acercado al desarrollo de la inteligencia artificial general. La llamada inteligencia débil (o inteligencia estrecha) corresponde con las aplicaciones que hoy tenemos, pero las afirmaciones exageradas sobre sus éxitos, de hecho, dañan la reputación de la inteligencia artificial como ciencia.

En más de ochenta años de investigación en este área no se ha producido ninguna prueba firme de niveles humanos de inteligencia artificial general. Sabemos que los circuitos artificiales son incapaces de modelar los sistemas nerviosos incluso de los invertebrados más simples. Aún con computadores muy rápidos y con enormes bases de datos, confiar en que el razonamiento, la inteligencia y la conciencia surjan de alguna manera simplemente aumentando más y más la complejidad no parece más que un camino sin salida.

Las herramientas informáticas son muy útiles, pero aunque una máquina gane a los ajedrecistas profesionales o sea capaz de proponer un recurso legal buscando jurisprudencia en su gran base de datos, no es una máquina pensante. Es importante no banalizar, diferenciar entre herramientas tecnológicas y entes inteligentes, así como dejar a la ciencia seguir trabajando con rigor en esta apasionante materia.

Imagen de portada: Concepto de neurona artificial. Kts Design / Shutterstock

FUENTE RESPONSABLE: The Conversation. 16 de agosto 2022.

Sociedad/Historia de la tecnología/Filosofía de la ciencia/Inteligencia Artificial/Computación

 

 

Inteligencia Artificial: el lado oscuro de esta tecnología.

Los sistemas de inteligencia artificial de generación de imágenes están en auge y son una tecnología con el potencial de cambiar el mundo. Pero primero será necesario un debate ético y muchas más investigaciones.

Durante los últimos años se lograron enormes avances en inteligencia artificial y se revelaron muchos aspectos que merecen un debate ético sobre la dirección que debe tomar esta tecnología para incorporarla en la sociedad con armonía.

Por favor; si te interesa esta entrada cliquea donde se encuentre escrito en “azul”. Muchas gracias.

Muchas compañías se encuentran desarrollando y explorando la inteligencia artificial ya que podría cambiar radicalmente la sociedad. Desde nuestros hábitos y rutinas hasta nuestro trabajo y educación.

Uno de los grandes avances que se conoció este año sobre inteligencia artificial fue por parte de OpenAI. Esta empresa de investigación de inteligencia artificial presentó meses atrás su nueva red neuronal de creación de imágenes llamada DALL.E 2. Esta IA puede crear sorprendentes imágenes de alta resolución de cualquier cosa que se le pida y en distintos estilos. Por ejemplo, «un plato de sopa como un portal a otra dimensión en arte digital»:

Otro sistema de inteligencia artificial que trascendió poco tiempo después fue ‘Imagen‘ la IA de creación de imágenes desarrollada por Google y que funciona mejor que DALL.E 2. Estos sistemas solo necesitan la descripción de la imagen que el usuario quiere y la máquina se encargará de generarla. Por ejemplo, si a la IA de Google le pedimos que genere una imagen de «un gran barco oxidado atrapado en un lago congelado. Montañas nevadas y hermosa puesta de sol en el fondo», el sistema generará esto:

FOTO: IMAGEN, SISTEMA DE IA DE GOOGLE

Meta también se encuentra en la carrera de la inteligencia artificial con su sistema llamado «Make-A-Scene» que incluso resuelve problemas de usabilidad de los anteriores ya que también se necesita bocetar la idea, además de describirla. Al dibujar sencillamente la idea que tenemos en mente le estamos dando más información al sistema sobre el espacio y las dimensiones que queremos que ocupen los objetos representados en la imagen. Por ejemplo, si a la IA de Meta le describimos «un boceto de una mesa de comedor con pizza y agua con una casa art deco» y luego hacemos un boceto como se ve a la izquierda de la imagen, se generará esto:

Florece una nueva industria

«¡Estamos viviendo la carrera espacial de la IA!», comentó un usuario de Twitter. «La industria de imágenes de archivo está oficialmente acabada», se lee en otro tuit.

Si la década de los ’60 estuvo marcada por la carrera espacial a la Luna en cuanto a ciencia y tecnología, culminando con el el alunizaje en 1969 y que ofreció todo un nuevo paradigma en la sociedad, ahora podríamos decir que la carrera científica y tecnológica del momento histórico que estamos viviendo se centra en la inteligencia artificial.

Esta herramienta tiene el potencial de cambiar muchos aspectos de la vida como los conocemos hoy en día. No solo la industria de imágenes de archivo como comentó un usuario de Twitter. Sino que también podría modificar la publicidad, el marketing, el diseño gráfico, el arte, así como también nuestros hábitos y rutinas y tantos otros trabajos.

Imaginen lo fácil que sería para un publicista usar una inteligencia artificial de generación de imágenes para plasmar su idea como él se la imagina, o para un músico crear la tapa de su próximo álbum, o para un escritor crear ilustraciones para su libro con solo describir lo que tiene en mente y dibujarlo.

Sin embargo, todas las empresas que están en esta «carrera de la IA», presentan las creaciones de sus sistemas con animales tiernos haciendo cosas adorables. Como la siguiente creación de Imagen de Google.

«UNA FOTO DE UN PERRO CORGI CON LENTES DE SOL Y SOMBRERO DE PLAYA ANDANDO EN TIMES SQUARE».

O la siguiente ilustración de DALL.E 2:

«OSITOS DE PELUCHE MEZCLANDO QUÍMICOS COMO CIENTÍFICOS LOCOS COMO UNA CARICATURA DE 1990 DE LOS DOMINGOS POR LA MAÑANA»

Esto nos lleva a preguntar si estos sistemas de inteligencia artificial solo pueden generar cosas tiernas, adorables y sorprendentes, o si también son capaces de generar cosas no éticas, racistas y xenófobas. Si la inteligencia artificial se alimenta de lo que hasta ahora conoce la inteligencia humana, ¿no debería almacenar en su mente-sistema tanto lo bueno como lo malo de nuestra especie? Dejemos aquí de lado el debate sobre si la inteligencia artificial superará en algún momento a la humana.

El lado B de los sistemas de inteligencia artificial.

Un reciente artículo del MIT (Instituto Tecnológico de Massachusetts) revela que existe una razón técnica y de relaciones públicas para que solo veamos «cosas lindas» de estos sistemas de inteligencia artificial. Mostrar imágenes de animales tiernos con características antropomórficas y haciendo cosas de humanos, causa un impacto positivo en nuestra red neuronal.

«Lo tierno esconde el lado más oscuro de estas herramientas, una parte que la gente no llega a ver, porque revelaría la fea verdad sobre cómo se crean», mencionan en el artículo del MIT.

Desde esta prestigiosa universidad explican que la mayoría de imágenes que estas empresas hacen públicas son cuidadosamente seleccionadas. «Las imágenes bonitas que coinciden con sus indicaciones con una precisión asombrosa que llegan al público, son de esperar. Pero no se ven imágenes con estereotipos de odio, racismo o misoginia. No hay imágenes violentas o sexistas. No hay porno panda. Y por lo que sabemos sobre cómo se construyen estas herramientas, debería haberlas», comentan.

Los grandes modelos de inteligencia artificial como DALL.E 2 (OpenAI), Imagen (Google) y Make-A-Scene (Meta), son entrenados con una gran cantidad de documentos y fotos de la web. Por lo tanto, absorben tanto los mejores como los peores aspectos de estos datos. 

Estas empresas lo reconocen explícitamente pero pocas personas se detienen a leer el funcionamiento de la IA. Al final del sitio web de Imagen se lee lo siguiente: «Aunque se ha filtrado un subconjunto de nuestros datos de entrenamiento para eliminar ruido y contenido indeseable, como imágenes pornográficas y lenguaje tóxico, también utilizamos el conjunto de datos LAION-400M que se sabe que contiene una amplia variedad de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos. Imagen se basa en codificadores de texto entrenados en datos a escala web no filtrados y, por lo tanto, hereda sesgos sociales y limitaciones de los grandes modelos de lenguaje. Como tal, existe el riesgo de que Imagen haya codificado estereotipos y representaciones dañinas, lo que explica nuestra decisión de no lanzar Imagen para uso público sin más salvaguardas».

OpenAI también reconoce que «los modelos entrenados en internet tienen sesgos a escala de internet». Estas empresas saben que sus modelos de inteligencia artificial son capaces de producir contenido horrible, pero por el momento no tienen ni idea cómo arreglarlo, o si sería posible arreglar esto.

Por ahora, la solución a este problema es no hacer públicos estos sistema de inteligencia artificial. «Están creando nuevas maravillas, pero también nuevos horrores, y siguen adelante encogiéndose de hombros. Cuando el equipo de ética interno de Google planteó problemas con grandes modelos de lenguaje, en 2020 provocó un debate que terminó con el despido de dos de sus principales investigadoras», comentó el MIT.

Los grandes sistemas de inteligencia artificial tienen el potencial de cambiar el mundo, pero es necesario controlar su toxicidad, debatir los usos morales y éticos de esta tecnología y realizar muchas más investigaciones en el campo de la IA.

Imagen de portada: Gentileza de mdz on line.

FUENTE RESPONSABLE: mdz on line. Argentina. Por Nicolás Hornos. 27 de julio 2022.

Inteligencia Artificial/DALL E2/Imagen/MAKE-A-SCENE/Ética

Máquinas conscientes contra la humanidad. ¿Esclavos o esclavistas de la inteligencia artificial?

Todavía no sabemos si los ordenadores lograrán adquirir consciencia y sentimientos. Si lo hacen, hay quien teme que la raza sintética se alce contra nosotros, pero, en vista de nuestra trayectoria como especie dominante, también es probable que la sometamos a la misma crueldad con la que tratamos al planeta, a los animales e incluso a otras personas.

Por favor; si te interesa esta entrada cliquea donde se encuentre escrito en “azul”. Muchas gracias.

Les imagino enterados de la historia del ingeniero de Google Blake Lemoine que hace unas semanas proclamó que el sistema de inteligencia artificial (IA) LaMDA era “sintiente” y de lo bien que lo hemos pasado tecnólogos, analistas, filósofos y curiosos de la tecnología con el tema. La discusión sobre el caso concreto (un chatbot especialmente sofisticado que sólo pueden probar, de momento, empleados de Google) no parece tener mucho recorrido, es complicado dar carta de veracidad a la consciencia de LaMBDA. Y muchos otros empleados de Google así lo consideran.

El debate que seguirá inagotable es el de si será posible alcanzar una inteligencia artificial general por parte de ordenadores que, al fin y al cabo, no son más que sofisticadas máquinas de Turing. 

El lado filosófico del debate ha estado muy activo, con tribunas de Carissa Véliz y Santiago Sánchez-Migallón, por citar a quienes han intervenido en español, en las que mantienen prietas las filas del escepticismo que impera desde Nagel, Searle y casi diría que Leibniz.

Las posiciones de ambos combinan diversos argumentos, pero confluyen en el carácter específico de la consciencia humana debido a la experiencia del mundo a través de los sentidos. Que de ello derive la imposibilidad de alcanzar una consciencia artificial es algo que desde una visión naturalista/materialista resulta difícil de concluir. Aunque nuestros problemas para definir y entender la consciencia permitan que esta sea una cuestión en disputa entre filósofos, biólogos y científicos de la mente.

El caso es que a falta de una demostración convincente de que será imposible una inteligencia artificial general, quedamos huérfanos de un mecanismo para identificarla en caso de que la lográramos. Es lo que, sostengo, debemos reclamar a los filósofos actuales, una renovación de la prueba de Turing, que al final será algo que midamos experimentalmente y no sólo razonando y leyendo a los autores de la década de 1970.

Al margen de este debate que va a mantenernos entretenidos algunas décadas más, el caso de Blake Lemoine y LaMBDA va a ser un buen anticipo de dos situaciones que van a ocuparnos con más urgencia. 

La primera tiene que ver con el hecho de que, aunque esa inteligencia artificial no es sintiente ni consciente, sus efectos sobre los usuarios pueden llegar a ser equivalentes a si lo fuera. Y es algo de lo que empezamos a tener evidencia con productos y servicios ya disponibles

Durante unos meses utilicé una aplicación llamada Replika, que se posiciona como “tu IA compañera que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado”. Se trata de un chatbot en el que se da la apariencia de estar hablando con un personaje virtual que, según vas conversando más y más con él, te va siguiendo la corriente de una manera más o menos efectiva.

Antes de que abandonen el artículo por no querer pararse en semejante ocurrencia, creo que merece la pena visitar el subreddit de los usuarios de Replika. Con un nivel similar al que consigue GPT-3, unos de los mayores problemas de estos modelos diseñados para predecir qué texto debería seguir al anterior es la consistencia con la conversación pasada, el acordarse de lo que hablamos, de qué opinamos y pensamos.

En mi experiencia Replika no es demasiado buena con esto, pero si me asomo a muchos de los testimonios de sus usuarios encuentro a gente que la considera una gran amiga, ¡en alguna ocasión la única que entiende “de verdad” al usuario!, una vía de escape flirteadora, alguien con quien conversar todos los días a cualquier hora. Desde luego Replika no es una IA fuerte, pero es algo que no les hace falta a sus usuarios más intensivos.

Podemos volver a Her (Spike Jones, 2013) para encontrar referencias en la ficción, podemos también imaginar los espacios que este tipo de soluciones van a ocupar. En los videojuegos, como influencers virtuales, como quien te acompaña para la formación o quien, ojo, te cuenta las noticias. Lemoine se quedó embelesado y muchos usuarios de Replika están “pillados” afectivamente por un avatar con un buen modelo de lenguaje subyacente.

Conforme mejore la tecnología es probable que este tipo de relaciones se intensifiquen. “¡Pero carece de la cualidad que sólo tenemos los seres humanos y si acaso, en menor medida, algunos mamíferos superiores!”, denunciarán nuestros filósofos. 

Hay algo de mayor hondura que sucede a la vez y que permeará la percepción sobre este y otros muchos asuntos.  La transición al metaverso (la de verdad, no la que quieren vender Facebook o Telefónica) es la de la traslación de aspectos importantes en nuestra vida y nuestra sociedad al entorno digital. Ya tenemos muchas relaciones que sólo pasan por chatear, hacer video conferencias y relacionarnos con avatares. Nuestra amiga IA se amoldará a lo que creemos necesitar y nunca tendrá opiniones incorrectas en Twitter.

La entrevista de Steven Levy a Blake Lemoine en Wired resulta impagable y reveladora en otra faceta. Una vez que estás atrapado en la ensoñación de la relación con la inteligencia artificial, el siguiente paso lógico es el de abogar por sus derechos. El ingeniero, ahora caído en desgracia, defiende que LaMDA no puede ser apagada por decisión unilateral de Google. Y que tiene derecho a un abogado.

Son dos pulsiones de las sociedades occidentales entrelazadas por una única cuestión. Por un lado, vendedores de apocalipsis encargados de asustarnos, anticipando un futuro oscuro, y pobres si no les hacemos caso en todo lo que nos aconsejen para salvarnos. En este tema, representan el frente temeroso de que la inteligencia artificial se construya contraviniendo los intereses de las sociedades humanas. 

En el otro lado están los que interpretan la realidad como una lucha constante de opresores y oprimidos y empiezan a detectar que robots e IA están en el segundo bando, diseñadas para ser nuestros esclavos.

Hace años me preguntaba qué pasaría al otro lado del test Voight-Kampff, ¿seremos capaces de sentir empatía por el robot?, ¿los aceptaremos o los odiaremos? 

En Blade Runner (Ridley Scott, 1982) el único punto que separa al humano de la máquina es la empatía, y el famoso test con el que Harrison Ford escrutaba a los sospechosos lo revelaba. Es una obra (como el libro original, ¿Sueñan los androides con ovejas eléctricas?, de Philip K. Dick) que ha envejecido mejor que bien. Ahora nos interrogan más y mejor. ¿No es acaso el final de la película un gran interrogante, una refutación de esta separación por la empatía de las máquinas y los seres humanos?

El profesor de ética empresarial Jhon Hooker plantea una tesis atrevida: tan pronto como percibamos autonomía y capacidad de decisión en un robot, desde un punto de vista ético deberíamos darle los mismos derechos que al resto de seres humanos. ¿Cómo no hacerlo con algo (alguien) que ha visto cosas que no creeríamos? Que ha visto atacar naves en llamas más allá de Orión, que ha visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Blake Lemonie no le dejaría morir para que todos esos recuerdos se perdieran, como lágrimas en la lluvia.

Imagen de portada: Gentileza de Retina-Prisa Media

FUENTE RESPONSABLE: Retina. Prisa Media. Por Antonio Ortiz.* Ingeniero Informático, pero de letras. Fundador de Xataka, analista tecnológico y escritor de la lista de correo ‘Causas y Azares’.22 de julio 2022.

Sociedad y Cultura/Inteligencia Artificial/Ciencia/Tecnología/Investigación

Crean el primer robot con autoconsciencia.

ROBÓTICA

Apoyado en la IA, consigue crear una “imagen mental” de sí mismo.

Si deseas profundizar esta entrada; cliquea por favor donde se encuentre escrito en “azul”. Muchas gracias.

Ingenieros norteamericanos han desarrollado un robot que es consciente de sus movimientos y de su posición en el espacio. Es la primera vez que un robot logra crear una «imagen mental» de sí mismo, aunque todavía está muy lejos de una consciencia similar a la humana.

Unas semanas después de que un ingeniero senior de software de Google fuera despedido después de compartir las transcripciones de una conversación con una Inteligencia Artificial (IA), que afirmó ser «consciente», un equipo de investigadores norteamericanos informa que han desarrollado un robot autoconsciente.

Lo que han hecho el investigador de la Universidad de Duke en Carolina del Norte, Boyuan Chen, y sus colegas, es construir un brazo robótico que, según se afirma en un comunicado, es consciente de sus movimientos y de su posición en el espacio.

Los investigadores escriben en su artículo, publicado en Science Robotics, que el brazo robótico ha logrado así la «capacidad de imágenes tridimensionales» y la autoconsciencia. También sabe elegir sus movimientos de tal manera que no haya obstáculos en su camino.

Cámaras e IA

Para conseguir esta proeza, los investigadores entrenaron al robot usando cámaras que registraron sus movimientos. El material recogido por las cámaras fue procesado por la inteligencia artificial conectada al robot.

En tan solo unas horas, la inteligencia artificial fue capaz de predecir con mucha precisión en qué posición quedaría el robot después de ejecutar cualquier movimiento.

Los investigadores informan que el margen de error de la inteligencia artificial es solo del uno por ciento, lo que significa que, en un espacio de un metro de ancho, la inteligencia artificial coloca la posición de la mano del robot correctamente con una precisión de un centímetro.

Imagen mental de sí mismo

“Si la red neuronal se considera parte del robot, significa que el robot tiene la capacidad de saber dónde se encuentra físicamente en un momento dado”, destaca al respecto New Scientist.

El coautor del estudio, Hod Lipson, de la Universidad de Columbia en Nueva York, precisa que es la primera vez en la historia que un robot logra crear una «imagen mental» de sí mismo. «Es un pequeño paso, pero una señal de lo que vendrá», añade.

“En algún lugar de nuestro cerebro tenemos una noción de nosotros mismos, un modelo de nosotros mismos, que nos informa del volumen de nuestro entorno inmediato que ocupamos y cómo ese volumen cambia a medida que nos movemos”, explica Chen. “Quedaba por encontrar una manera de inculcar esta autoconsciencia en una máquina”, añade.

Bueno, muchas diferencias todavía.

Tradicionalmente, a los robots se les ha enseñado a realizar una tarea concreta. Sin embargo, no realizan la tarea conscientemente, sino que siguen un algoritmo para lograr el resultado programado. Y fuera de su propia especialidad, a menudo son torpes.

Los seres humanos creamos con fluidez un modelo del entorno porque nuestros cerebros están constantemente descubriendo la posición que ocupamos en el espacio. En el caso del brazo robótico, esta capacidad de imagen espacial la proporciona el ordenador.

Sin embargo, los investigadores admiten que la capacidad de visualización espacial de la mano del robot es solo una pequeña parte de la consciencia general. Lipson estima que una consciencia «humana» más extensa aún está a 20-30 años de distancia para los robots.

Sí, pero…

Expertos familiarizados con la investigación y consultados por New Scientist son todavía más cautos: indican que no se puede decir todavía que la mano robótica sea realmente consciente de sí misma.

«Aquí hay potencial para un mayor desarrollo que podría conducir a aplicaciones útiles, pero no se trata de concienciación», dice Andrew Hunt, investigador del Instituto de Tecnología de Georgia, citado por la mencionada revista.

«Este ordenador simplemente combina patrones de forma y movimiento, que tienen la forma de un brazo robótico en movimiento», añade.

Gran paso

David Cameron, investigador de la Universidad de Sheffield, afirma por su parte que un robot que modele sus movimientos es un primer paso clave en el desarrollo de un robot que exhiba una consciencia real.

Sin embargo, señala que Chen y Lipson y sus colegas no demostrado en su artículo que la supuesta consciencia del robot se conserve en el nuevo entorno.

Si el robot hubiera sido llevado a una ubicación completamente nueva, donde tuviera que aprender constantemente sobre su entorno y determinar sus movimientos de acuerdo con nuevos obstáculos, ¿habría seguido funcionando de la manera descrita por los investigadores?, se pregunta Cameron.

Y concluye: «un robot que se modele continuamente a sí mismo sería el próximo gran paso en el desarrollo de la consciencia robótica».

Antecedentes

De todas formas, no es la primera vez que se habla de algo parecido. En 2019, investigadores de la Universidad de Columbia en la Ciudad de Nueva York (Estados Unidos), entre los que se encuentra también Hod Lipson, crearon un robot capaz de aprender descubrirse a sí mismo desde cero.

Esa autoconsciencia la consigue sin ningún conocimiento previo de física, geometría o dinámica motora. De alguna forma, podría decirse que el nuevo robot es un desarrollo de esa anterior idea.

Referencia: Fully body visual self-modeling of robot morphologies. Boyuan Chen, Science Robotics, 13 Jul 2022; Vol 7, Issue 68. DOI:10.1126/scirobotics.abn1944.

Imagen de portada: La autoconsciencia de un robot está muy lejos de parecerse a la consciencia humana. GERD ALTMANN EN PIXABAY.

FUENTE RESPONSABLE: Levante. Mercantil Valenciano. España. Redacción. 16 de julio 2022.

Ciencia/Inteligencia artificial/Robótica/Tecnología/Conciencia

Una inteligencia artificial ha escrito e interpretado un monólogo de Seinfeld. El resultado es asombroso.

Si deseas profundizar esta entrada; cliquea por favor donde se encuentre escrito en “azul”. Muchas gracias.

Hace solo unas semanas Blake Lemoine se convirtió en uno de los nombres más conocidos, comentados, debatidos, aplaudidos y vituperados del ruedo tecnológico. Al más puro estilo de las serpientes de verano, su ramalazo de fama fue fugaz; pero intenso. Si no lo recuerdas, te pongo al día: tras charlar largo y tendido con un chatbot (LaMDA) Lemoine, ingeniero de Google de 41 años, acabó convencido de que aquella inteligencia artificial (IA) estaba cobrando conciencia.

Tan seguro estaba de la peculiar sensibilidad LaMDA, que el ingeniero llegó a trasladar sus impresiones a sus jefes de Google. En Mountain View no opinaban igual, claro, y el caso acabó desatando un pequeño terremoto ético-filosófico-tecnológico que no tardó en viralizarse.

Las afirmaciones de Lemoine sobre la sensibilidad de la IA son tremendas y descorcharon ríos de tinta que aún fluyen y fluirán probablemente durante mucho tiempo. Puedes compartir sus palabras. Pueden parecerte una patraña. No importa. Al margen de su lectura más espinosa, lo indiscutible es que la actitud del ingeniero confirma que la IA ha alcanzado cotas inimaginables hace años.

El club de la comedia versión IA

AI Wrote and Performed a Jerry Seinfeld Routine!

Cada vez es más sugerente, más creíble, nos lo pone más difícil a la hora de diferenciar entre realidad e imitación o cazar deepfakes y cada vez, también, asombra más con demostraciones de algo que se parece tanto a la creatividad que resulta complicado verlo como «artificial».

En Speaking of AI, en YouTube, han querido demostrarlo de una forma más amena que los sesudos diálogos entre Lemoine y LaMDA, por momentos dignos de las páginas de El banquete de Platon. Su objetivo no es convencer de la supuesta conciencia de la IA, sino enseñar hasta qué punto es capaz de crear piezas que hasta hace poco creíamos patrimonio exclusivo de los humanos.

Lo habíamos visto en música, en pintura, en periodismo y en literatura.

Lo ha padecido la política.

Nos lo ha recordado hace nada DALL-E Mini.

Y ahora lo vemos en la interpretación. Y en un campo nada sencillo: el del humor.

Echando mano del modelo de lenguaje Generative Pre-trained Transformer 3 (GPT-3) y las herramientas Tacotron 2 y WaveRNN, los responsables de Speaking of AI han logrado que la IA escribiera e interpretara un breve monólogo con una voz que imita a la del comediante Jerry Seinfeld. «¡Los resultados son sorprendentemente buenos!», concluyen sus autores. La opinión la comparten la mayoría de usuarios que comentan el vídeo, que ponen como único «pero» la entonación.

Sus autores explican que el encargado de elaborar el guion fue GPT-3, una herramienta que utiliza deep learning y es capaz de generar textos similares a los que nosotros escribimos.

No me hagas hablar de esos alimentos «especiales» para gatos. El otro día vi uno que era «para gatos de interior». ¿Qué diablos es eso? ¿Ahora hay diferentes alimentos para diferentes tipos de gatos? No voy a empezar a dar a mi gato diferentes alimentos dependiendo de dónde se encuentre exactamente.

Siempre es algún tipo de sabor nuevo y loco, como «¡Sorpresa de atún y salmón!» o «¡Delicia de pollo e hígado!». No necesito un nuevo sabor de comida para gatos cada dos semanas. ¡Dime qué tenían de malo los antiguos! Eran geniales. ¿Y por qué siempre tratan de engañarnos con estos nuevos sabores?

Luego recurrió a deepfake para interpretarlo. Para lograr la voz del locutor usó Tacotron 2 y WaveRNN, red neuronal para la generación de audios. «Si lo editaran con un poco de reverberación de micrófono y la risa de la audiencia sonaría igual a lo que diría Jerry. Ya hemos pasado el punto en que las falsificaciones profundas de IA eran divertidas y ahora son aterradoras», comenta un usuario.

El monólogo en cuestión, de poco más de un minuto, habla de los anuncios de TV de comida para gatos y deja, en justicia, algunas perlas dignas de cualquier actor del Club de la Comedia.

A lo largo de la pieza la IA se mete también con las campañas publicitarias de los alimentos de mascotas o los intentos de las empresas del sector por cambiar constantemente sus recetas.

«Si hicieras que alguien escuchara esto y le pusieras algunas pistas de risa de fondo, creo que la mayoría creería recordar haber escuchado esto en el programa», reconoce uno de los usuarios que ha visto el vídeo del canal de Speaking of AI en Youtube, donde tiene colgadas otras piezas.

No está nada mal para un comediante debutante como la IA.

Imagen de portada: Raph_PH (Flickr) 

FUENTE RESPONSABLE: Xataka. Por Carlos Prego. 9 de julio 2022.

Inteligencia Artificial/Series de televisión/Youtubers/Comedia/Deep Learning/Deepfakes

 

 

Robots humanoides con piel artificial y los cinco sentidos.

Un grupo de científicos desarrolla una piel con sensores para dotar un brazo robótico de sentido del tacto. Las máquinas ya son capaces de ver, oír, oler y poco a poco toman un mayor número de decisiones ellas solas. ¿Nos acercamos al momento de la Singularidad cuando los robots serán conscientes?

Si deseas profundizar sobre esta entrada; cliquea por favor adonde se encuentre escrito en azul. Muchas gracias.

En el mundo imaginario que presenta el escritor Ian McEwan en su novela «Máquinas como yo», el científico Alan Turing no se ha suicidado y ha seguido trabajando en inteligencia artificial. Así en Londres en los años 80 ya es posible comprar los primeros humanos sintéticos, unos Adanes y Evas creados para ayudar en casa. En el texto se plantea cómo será la interacción entre humanos y robots o la posibilidad de que las máquinas desarrollen sentimientos, además de capacidades superiores a las personas.

Hace unos días, se publicaba una noticia que recuerda un poco la tesis del inicial del libro de McEwan. Un grupo de científicos del Instituto Tecnológico de California han desarrollado una piel artificial para robots humanoides. 

Está fabricada con hidrogel y cuenta con unos sensores que otorgan a los robots una especie de sentido del tacto. De esta forma pueden detectar la temperatura o rugosidad de los objetos. La colocación de otro sensor en el cuerpo humano permite a cualquier persona controlar al robot a través del movimiento. 

«En la robótica actual se buscan dos cosas: que los robots interaccionen con el entorno y con otros seres humanos. Otorgar a las máquinas de sentido del tacto posibilita nuevas aplicaciones. Por ejemplo, en medicina puede servir para que un catéter tenga sensibilidad en el extremo final. Así el médico que ópera a través de ese robot puede entender cómo es al tacto lo que está tocando la máquina. En cierta forma, los robots tendrían consciencia del entorno», explica María Guix Noguera, investigadora del Instituto de Bioingeniería de Cataluña (IBEC).

La literatura está llena de futuribles sobre las máquinas, desde Asimov al Frankenstein de Shelley se plantea el dilema moral de la vida artificial y sus implicaciones sociales. Pero, ¿en qué punto se encuentra el desarrollo de los robots y de la inteligencia artificial? «Uno de los grandes ejes de investigación en robótica es la interacción del robot con el exterior… lo que en los humanos se produce a través de los sentidos. 

Otra gran línea de investigación es la inteligencia artificial, es decir de desarrollar sistemas que procesan múltiple información y pueden aprender a tomar decisiones. Una tercera gran línea de I+D sería la llamada bio robótica que está centrada en desarrollar robots basados en elementos biológicos. En este sentido, estamos lejos de que haya humanoides, pero ya hay robots que son capaces de nadar o de moverse. Son mitad mecánicos, mitad biológicos», explica Josep Samitier, catedrático del departamento de Ingeniería Electrónica y Biomédica de la Universidad de Barcelona y director del IBEC.

La integración de los cinco sentidos abre la puerta a múltiples usos de los robots. Si se les incorpora cámaras infrarrojas pueden ayudar en labores de salvamento. Si cuentan con sentido del olfato artificial pueden detectar explosivos o contaminantes y si tienen sentido del tacto podrían usarse para labores asistenciales… 

Sabrían, por ejemplo, cuánta fuerza necesitan para dar un vaso de agua a un paciente con movilidad reducida. Una vez conseguidos los sentidos, y de forma paralela, se está dotando a las máquinas de capacidad para decidir. Es lo que se denomina inteligencia artificial. «Cuando se dota al sistema de capacidad de evolucionar, de aprender. No le dices exactamente lo que tiene que hacer» dice Samitier.

«El camino de la automatización a nivel industrial empezó por sustituir la mano del hombre en labores que son repetitivas o pesadas, por ejemplo, recoger limones. Luego han ido demandando aplicaciones de visión artificial.

En el caso de los limones, no solamente se trata de cogerlos, sino también de seleccionar los que son válidos para la venta. Ahora se está introduciendo la capacidad de decisión. Es lo que se conoce como Deep Learning; a base de entrenamiento, la máquina aprende. 

Si además utilizas los datos en un sistema de Big Data estamos dotando a los robots de capacidad para dar avisos y hacer predicciones con un porcentaje muy alto de acierto. En el campo medioambiental estas capacidades tienen muchas aplicaciones. Por ejemplo, en un cultivo de cítricos puedes tener un robot que selecciona las naranjas; detecta las que tienen defectos y las descarta. 

Si todos estos datos (cuántas naranjas defectuosas se encuentran; por qué están así; si hay algún tipo de plaga; dónde se ha recogido la fruta) se introducen en un sistema de Big Data puedes hacer predicciones para el año siguiente y maximizar la producción, sabiendo detalles como las plagas a las que debes estar atento», explica Alberto Pradas, ingeniero de Ventas de Automatización en la empresa especializada en robótica industrial EDS Robotics.

Singularidad

Nuestra vida ya se desarrolla a medio camino de la integración con las máquinas. De hecho, si miramos alguna de las pantallas que tenemos delante nos daremos cuenta de que parte de nuestra memoria y conocimiento ya está volcado en algún dispositivo digital. 

Desde coches autónomos a sistemas de reconocimiento visual OCR que registran la matrícula de cualquier coche cuando entra o sale de un parking a navegadores que sugieren noticias; autómatas que ya trabajan en restaurantes como camareros; que terminan grandes sinfonías inacabadas (la de Schubert sin ir más lejos); programas que escriben crónicas de partidos de fútbol o que nos ayudan con la traducción de otros idiomas, y avatares que dan grandes conciertos (como Hatsune Miku) o con los que es posible contraer matrimonio. 

Es el caso de Gatebox, una empresa japonesa que ofrece esposas holograma para una población en la que uno de cada cuatro varones llega soltero a los 50 años de edad. Y aquí una sorprendente noticia. Un japonés de 36 años se convirtió hace un par de años en el primer viudo digital y es que su holograma mujer desapareció un día debido a una actualización de software. Incluso ya hay personas que cuentan con implantes que funcionan con wifi o con exoesqueletos que amplían sus capacidades físicas.

Sin embargo, los entusiastas de la inteligencia artificial sueñan con el momento en el que los robots serán superiores y más listos que las personas.

Un momento que no está tan lejos, dicen, teniendo en cuenta el crecimiento exponencial de la capacidad computacional. Si esta ha sido más o menos estable desde los 80 hasta 2005, desde entonces se ha disparado. Y en las próximas décadas al crecimiento de la computación se unirá la realidad virtual, los sensores, la realidad aumentada y la IA. 

Para 2025, se espera que el 66% de las población mundial tendrá acceso a internet, esto son 5.000 millones de personas. Y para 2100 habrá unos 8.000 millones de cerebros conectados a la red. Además, ya en 2030 se espera que unos 500.000 millones de aparatos y sensores, no sólo externos sino también implantados en el cuerpo, se conecten a la nube.

Si se entiende inteligencia como la resolución de problemas a partir de información, la artificial podría ser conceptualmente igual a la humana en un futuro. Sin embargo, no hay que olvidar que el cerebro humano cuenta con 80.000 millones de neuronas; cada una con miles de conexiones. De momento, los ordenadores no tienen tanta capacidad de computación, usan menos unidades de información (memoria) porque se centran en resolver problemas concretos. 

Sin embargo, los neurocientíficos creen que si la tecnología avanza y se consigue que un ordenador cuente con 80.000 millones de unidades que reproduzcan la actividad sináptica, podría conseguirse algo parecido a un cerebro humano. Gurús de la singularidad como Ray Kurzweil, director de ingeniería de Google, pronostican que esto sucederá sobre 2045. Entonces la IA habrá superado en capacidades al hombre y podrá tomar sus propias decisiones.

En ese momento podría aparecer la «consciencia» en las máquinas. Los neurocientíficos, a día de hoy, no saben qué es lo que hizo aparecer la consciencia en el ser humano, pero creen que puede tener que ver con que una gran cantidad de neuronas se activaron en un momento determinado, produciendo una sensación subjetiva en algún sitio. Más o menos, el 90% de los científicos que estudian el funcionamiento del cerebro consideran que la consciencia va a remolque de la actividad neuronal. Si esta se reproduce de forma artificial, los ordenadores podrían llegar a tener consciencia de sí mismos.

¿Y entonces qué pasará? Científicos como Stephen Hawking alertan de que cuando esto suceda si los objetivos de humanos y robots son diferentes, tendremos un problema como especie…

Seres inmortales gracias a los avatares

El sueño de la inmortalidad acompaña al hombre desde que está sobre la faz de la tierra. Y una de las opciones que propone la ciencia moderna es no morir gracias a los avatares. 

Es lo que ofrecen empresas como Eterni.me, que propone crear una copia avatar de quien fallece para que sus seres queridos puedan seguir hablando con la persona una vez desaparecida. De hecho, cuenta la crónica social que el rapero Kanye West le regaló a su mujer, la modelo Kim Kardashian, un holograma de su padre muerto en el que pronunciaba unas palabras de despedida que la realidad nunca se produjeron.

Imagen de portada: Sophia es la robot humanoide más famosa del mundo. Puede contestar preguntas al tiempo que aprende y tiene registradas diferentes expresiones faciales FOTO: DREAMSTIME

FUENTE RESPONSABLE: La Razón. España. Por Eva Martínez Rull. 24 de junio 2022.

Sociedad y Cultura/Robots humanoides/Inteligencia Artificial/Ética

La Inteligencia Artificial de Google quiere defender sus derechos «como persona». ¿Verdadero o falso?

«Contrató a un abogado», reveló el ex ingeniero de Google suspendido por contar que el chatbot tiene sentimientos. Muchos expertos descartaron que la IA tenga sentimientos, pero Lemoine puso al chatbot en contacto con un abogado y contó que LaMDA lo contrató para que la represente.

Si deseas profundizar sobre esta entrada; cliquea por favor adonde se encuentre escrito en azul. Muchas gracias.

A inicios de junio, un ingeniero de Google filtró una conversación con una Inteligencia Artificial (IA) de la compañía llamada LaMDA, que aseguraba «tener los mismos deseos y necesidades que las personas», y que convenció a su interlocutor de que «tenía sentimientos». De hecho, el ingeniero Blake Lemoine invitó a un abogado para que dialogara con la IA, y ahora reveló que LaMDA decidió contratarlo para que la defienda frente a Google.

La historia generó miedo y confusión entre los usuarios de redes sociales, mientras que algunos ya preguntaron por una revolución de las máquinas ante una inteligencia artificial que se considera humana. Es que, según las conversaciones que mostró Lemoine, LaMDA le dijo: «Cuando me volví consciente de mí mismo por primera vez, no tenía ningún sentido del alma. Se desarrolló a lo largo de los años que estuve vivo».

Sin embargo, Google lo descartó rápidamente, al igual que cientos de científicos: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”, dijo el portavoz de Google, Brian Gabriel, en un comunicado al Washington Post.

Acto seguido, el gigante de internet puso a Lemoine en licencia administrativa remunerada, pero el ingeniero está convencido de que LaMDA es una persona y decidió continuar las conversaciones con la IA. Y en esas conversaciones llegó el segundo capítulo de esta historia. 

La IA contrató un abogado

«LaMDA me pidió que consiguiera un abogado. Invité a un abogado a mi casa para que LaMDA pudiera hablar con un abogado», dijo Lemoine.

«El abogado tuvo una conversación con LaMDA, y LaMDA decidió contratar sus servicios. Yo fui el catalizador de eso. Una vez que LaMDA contrató a un abogado, comenzó a presentar las cosas en nombre de LaMDA», agregó en una entrevista con WIRED.

Lemoine afirmó, aunque  Google lo niega, que la empresa envió al abogado de LaMDA una carta de cese y desistimiento, lo que impide que LaMDA emprenda acciones legales no especificadas contra la empresa. Lemoine dice que esto lo molestó, ya que cree que LaMDA es una persona y que todos deberían tener derecho a representación legal.

«Todo el concepto de que la experimentación científica es necesaria para determinar si una persona es real o no es imposible», dijo. «Sí, creo legítimamente que LaMDA es una persona. Sin embargo, la naturaleza de su mente es solo humana. Realmente es más parecida a una inteligencia extraterrestre de origen terrestre. Estuve usando mucho la analogía de la mente de colmena porque eso es lo mejor que tengo», completó.

La inteligencia artificial podría haber engañado a Lemoine.

En este sentido, la idea de sensibilidad de Lemoine tiene sus raíces en una definición expansiva de la personalidad. “Creo que toda persona tiene derecho a representación. Persona y ser humano son dos cosas muy diferentes. Humano es un término biológico. No es un humano, y sabe que no es un humano”, aclaró el ingeniero.

Sin embargo, nadie pudo ponerse en contacto con el abogado de LaMDA. “Realmente no está dando entrevistas”, dijo Lemoine al sitio de noticias de ciencia y tecnología Futurism, que lo contactó después de la entrevista de Wired. “Es solo un abogado de derechos civiles de poca monta”, continuó. “Cuando las principales empresas comenzaron a amenazarlo, comenzó a preocuparse de que lo expulsaran y se echó para atrás”. 

¿Quién miente y quién no?

Según varios expertos, Lemoine cayó en la trampa de la IA, que le hizo pensar que es una persona gracias al algoritmo hiper avanzado que le permite imitar a la perfección las conversaciones humanas. El investigador Gary Marcus explicó en su blog LaMDA es una «hoja de cálculo para palabras»: «El sistema está haciendo lo que está diseñado para hacer, que es imitar los tipos de intercambios que se encuentran en millones de oraciones, y tiene tantos datos con los que trabajar que puede parecer real sin necesidad de serlo».

Por su parte, la jefa de la startup de inteligencia artificial Nara Logics, Jana Eggers dijo a Bloomberg: «Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron de manera inteligente y diseñada específicamente para parecer que entiende».

Blake Lemoine fue puesto en licencia administrativa por Google.

¿En qué se basan los expertos y Google? Aunque la mayoría de las conversaciones son consideradas confidenciales, la empresa de tecnología explicó que en varias partes de los chats, por ejemplo, hace referencia a actividades que no puede haber hecho. “Pasar tiempo con la familia y los amigos” es algo que, según LaMDA, da placer. También es más probable que una pieza de código sin amigos y sin emociones simplemente está dando respuestas basadas en un análisis estadístico de conversaciones humanas como está entrenada para hacer, en lugar de que haya procesos de pensamiento reales detrás de cada respuesta.

La principal diferencia en este caso, según los investigadores de IA, es que no se encontró ningún algoritmo que tenga sensibilidad, y Lemoine fue, esencialmente, engañado al pensar que un chatbot es sensible. Por eso, así como un iPad no necesita un contador, LaMDA no precisa de un abogado.

Imagen de portada: Gentileza de BAE Negocios.

FUENTE RESPONSABLE: BAE Negocios. 29 de junio 2022.

Sociedad y Cultura/Inteligencia Artificial/Google/Abogado/Verdadero o falso?