El impacto real de los siguientes 10 años de inteligencia artificial según los expertos.

UN MERCADO DE 16 BILLONES DE DÓLARES

Bank of America dice que la inteligencia artificial generativa será la mayor revolución tecnológica desde la electricidad. Según los expertos de Control Z, será mucho más, tanto para mejor como para peor.

Sí deseas profundizar sobre esta entrada; cliquea por favor adonde está escrito en color “azul”. Muchas gracias.

Los analistas del Bank of America afirman que la inteligencia artificial es una revolución comparable a la electricidad. Energía, armas, medicinas o naves espaciales, todas las industrias están ya siendo transformadas por una tecnología, aseguran, que en sólo siete años aportará 15,7 billones de dólares a la economía mundial, más que el producto interior bruto anual de toda la zona euro en 2022. 

Más allá, afirman, no hay límite para su crecimiento. Pero, después de varios meses y una docena de entrevistas a varios de los líderes de la industria y a usuarios expertos de la inteligencia artificial generativa, mi conclusión es que el Bank of America se queda corto.  Lo que ya está aquí y lo que viene es mucho más grande de lo que el Bank of America o cualquier otro pueda imaginar, algo que admiten los propios expertos con los que he hablado. 

Dentro de dos o tres décadas, el cambio industrial y social es totalmente impredecible, pero los próximos diez años pueden proyectarse con precisión. Esta década será un momento decisivo en la historia de la humanidad y esto es justo lo que hemos plasmado en el episodio 5 de Control Z, titulado El Fin de la Realidad:

El fin de la realidad: así serán los próximos 10 años de la inteligencia artificial | Control Z Ep 5

Lo que dicen los expertos

La explosión científica, económica y creativa que está ocurriendo ahora mismo llegará a ser comparable a pasar de la Edad de Piedra directamente al 2023 en sólo 10 años. 

Pero, si no tomamos medidas para cortar de raíz su uso para hacer el mal, la inteligencia artificial generativa hará tambalearse a la sociedad, causando profundos daños irreparables a millones de personas. Como me cuenta Tom Graham por videoconferencia — CEO y co-fundador de Metaphysic, uno de los líderes del sector que ha revolucionado Hollywood con la tecnología deep fake que se hizo viral con el falso Tom Cruise — estamos en un momento en que toda la sociedad — individuos, tecnólogos, consumidores y legisladores — debe tomar medidas urgentes para evitar daños brutales al público y las democracias. Desafortunadamente, afirma, las leyes van muy por detrás de lo que se está desarrollando, y todavía tardarán 10 a 15 años en llegar. Hoy, asegura, ”estamos en un período de peligro”.

Very realistic Tom Cruise Deepfake | AI Tom Cruise

Varios de los vídeos del Tom Cruise falso

Graham se refiere a un horizonte de sucesos en el que la realidad se evaporará. En algún momento del futuro cercano, perderemos nuestra capacidad para distinguir entre los hechos y la ficción creada por las máquinas, sin importar cuántas herramientas forenses podamos idear. Resulta que, después de hablar con algunos de los principales expertos en el campo, ese «futuro cercano» ocurrirá en los próximos 10 años. Según me contó por videoconferencia Emad Mostaque — CEO y fundador de Stability AI, la organización que ha creado Stable Diffusion, el motor de inteligencia artificial generativa más importante del mundo en estos momentos, más allá incluso que Chat GPT — “en los próximos cinco a 10 años podremos crear cualquier cosa que puedas imaginar con una calidad visual perfecta en tiempo real.” Bryan Catanzaro — vicepresidente de inteligencia artificial aplicada de Nvidia, unas de las compañías que ha sentado las bases del campo con su investigación científica y procesadores gráficos — está de acuerdo con la predicción de Mostaque. De hecho, va más allá. “Apuesto a que en 2023 alguien hará una película donde el video, el audio y el guion están hechos con AI pero, probablemente dentro de cinco años eso, llegará al punto en el que realmente sería interesante ver algo construido de esta manera”, me cuenta. 

Así que en 2033 tendremos la capacidad de crear video de alta definición en tiempo real en el que todo, absolutamente todo, desde la imagen hasta el sonido, la música y cada palabra o gruñido que se pronuncie en él, será generado artificialmente. El producto será indistinguible de cualquier clip o película completa que se pueda grabar con cualquier cámara actual. Antes de eso, sin embargo, veremos vídeos e imágenes y escucharemos audios que serán indistinguibles de la realidad a simple vista, requiriendo de un análisis forense para determinarlo. Según me dice Gil Perry — CEO y co-fundador de la compañía de IA israelí D-ID, creadores de Deep Nostalgia — “en uno o dos años, no serás capaz saber qué es verdad y qué es mentira”. 

No ya en películas de Hollywood sino en tiempo real, incluyendo su uso en videoconferencias. Graham afirma que la tecnología de IA generativa podrá cambiar tu cara e incluso tu entorno en herramientas de comunicación como Zoom en tiempo real de forma totalmente creíble en pocos años.

Cada una de estas entrevistas me dejó con una profunda sensación de desolación y ansiedad ante una crisis que parece inminente e inevitable, una sensación de angustia existencial que aún no me he podido quitar de encima. 

Lógicamente, el lado oscuro de toda esta tecnología está en su aplicación criminal, no ya por estados autoritarios como Rusia, China o Irán, o partidos políticos extremos de uno y otro signo, sino en el día a día. Estafadores, chantajistas, violadores, acosadores en colegios… la herramienta será extremadamente poderosa para hacer el mal. Una auténtica bomba atómica al alcance de cualquiera porque, según los expertos, la barrera de entrada será cero. No requerirá de ningún conocimiento o equipo especializado. Cualquiera con un teléfono móvil lo podrá hacer, como me contaba Mostaque.. Siempre he sido un tecno optimista, el tipo que piensa que no hay problema que no se pueda resolver con la pura ingeniosidad humana. El calentamiento global, el cáncer, la crisis energética, lo resolveremos todo. Pero, a medida que me adentraba más en la inteligencia artificial generativa, descubrí que no hay forma de volver a poner este genio dentro la lámpara. 

Que, esta vez, hemos desatado una fuerza que será totalmente incontrolable en apenas unos pocos años si no tomamos algunas medidas radicales ahora. Es un futuro distópico aterrador, que es probable que suceda con otros eventos del mundo real, pero con básicamente el mismo resultado: el fin de la realidad no es bueno para la humanidad. Claramente, la IA generativa es algo que no podemos deshacer. Eso también sería absolutamente estúpido. Su potencial es simplemente demasiado sorprendente para ignorarlo, desde el desarrollo de curas para enfermedades incurables hasta el diseño de naves espaciales mucho mejores que las que diseñan los humanos para llevarnos a nuevos mundos. Y por supuesto, hacer películas y divertirnos con ella.

Limitar el lado oscuro sin limitar la innovación

Pero confiar en que las empresas se autorregulen también sería igual de estúpido. Esto es algo que admiten los expertos que he entrevistado, incluso siendo parte afectada. Mucho menos cuando está involucrado Silicon Valley. La historia nos ha demostrado una y otra vez que no se puede confiar en ellos. La lista de errores y actos ilegales y desprovistos de toda ética es demasiado larga para ignorarla. 

La última vez que confiamos en ellos, nos dieron las redes sociales, y todos sabemos cómo terminó ese espectáculo de mierda. Volver a confiar en ellos sería absolutamente tonto, especialmente después de leer el manifiesto aterradoramente mesiánico y autoabsorbido de OpenAI sobre la inteligencia artificial general. Las redes sociales, dice Graham, se lanzaron al mundo con absolutamente cero consideración por el impacto que tendría en los jóvenes y en la democracia. “No creo que ese sea el modelo que debemos seguir para esta nueva tecnología”. Graham piensa que deberíamos tratar de evitarlo a toda costa.

Harrison Ford ha sido rejuvenecido hasta los 30 años en la nueva película de Indiana Jones.

Necesitamos un debate público urgente sobre la IA generativa y hay tres cosas que podemos hacer para evitar una crisis social de consecuencias inimaginables. Requerirán que las empresas se sienten con instituciones y gobierno, incluso con psicólogos, filósofos y organizaciones de derechos humanos, pero se puede hacer. 

Mostaque piensa que se necesita una discusión abierta sobre el lado positivo y negativo y qué necesita ser regulado, aunque no cree que haga falta mucho más que una extensión de la legislación actual para proteger a las personas. “El debate abierto siempre es el mejor debido a la complejidad de lo que esto podría hacer a la composición social”, afirma. 

Graham, sin embargo, afirma que “los legisladores deben pensar en cómo implementar esas leyes tan rápido como sea humanamente posible para proteger a las personas de un daño potencial”. La primera, y más importante, es la creación de estándares de certificación criptográfica en todo el mundo para autenticar cualquier contenido capturado por cámaras y micrófonos digitales. El objetivo es establecer una línea básica de certeza que, como mínimo, permita a las personas tener la seguridad de que algo es real. Según Perry, la detección de contenido sintético será imposible. «La IA es más fuerte”, afirma. De ahí la necesidad de saber por lo menos lo que sí es real. 

También apunta a que se debe trabajar en incorporar marcas de agua invisible en el contenido generado pero, desafortunadamente, esto puede ser también falsificado por criminales.

ELVIS LIVE ON THE AMERICA’S GOT TALENT FINAL?! | Got Talent Global

La segunda es lanzar programas de comunicación para que el público comprenda el alcance de la inteligencia artificial generativa. Las personas deben aprender para poder defenderse contra nuevas falsificaciones audiovisuales. “El mundo está cambiando y los niños están creciendo en un lugar muy diferente. Es un poco aterrador”, me dice Perry, “la idea es hacer la IA abierta al público y hacer que todos tengan acceso y que se acostumbren a ella, no que sea controlada por algunos gobiernos y gigantes tecnológicos”. 

Graham está de acuerdo con esta labor de concienciación pública. Hace poco su compañía participó con sus avatares de inteligencia artificial en tiempo real en el popular programa de televisión America’s Got Talent (un ejemplo sobre estas líneas). Su misión, afirma, no sólo era promocional sino hacer conocer el poder de esta tecnología al público general: “si eso puede ayudar a una persona a disminuir el impacto psicológico [de una imagen o vídeo falso] es positivo”. 

Finalmente, necesitamos instar a los gobiernos de todo el mundo a colaborar con la comunidad científica en la legislación que proteja los derechos individuales, estableciendo límites penales para tratar de frenar el uso tóxico de esta tecnología. Perry — cuya empresa comenzó desarrollando sistemas para evitar la identificación facial gubernamentales —dice que ellos están presionando a los reguladores para que sean conscientes de la tecnología y la necesidad de establecer directrices, reglas y límites de seguridad”. Solo entonces podremos aprovechar su revolucionario potencial creativo sin poner en peligro a la humanidad misma.

Imagen de portada: ¿Es una imagen generada con inteligencia artificial o real?

FUENTE RESPONSABLE: El Confidencial. Por Jesús Díaz. 5 de marzo 2023.

Sociedad/Inteligencia Artificial/Verdadero o falso?/Peligros/ Regulaciones/Pensamiento crítico 

Una nueva inteligencia artificial podrá grabar imágenes extraídas de tus sueños.

ABRE LA PUERTA A GRABAR TUS SUEÑOS

Científicos japoneses han descubierto cómo convertir las señales generadas por tu cerebro en imágenes de alta definición, un avance que eventualmente servirá para grabar tu imaginación y tus sueños.

Sí deseas profundizar sobre esta entrada; cliquea por favor adonde está escrito en color “azul”. Muchas gracias.

Una semana más, otra noticia de inteligencia artificial para volarnos la cabeza. Esta vez, literalmente: un equipo de científicos japoneses ha desarrollado una tecnología capaz de extraer imágenes de tu cerebro en alta definición. La tecnología es absolutamente increíble y abre camino a un futuro en el que seremos capaces de grabar lo que vemos, lo que imaginamos e incluso lo que soñamos.

El fin de la realidad: así serán los próximos 10 años de la inteligencia artificial | Control Z Ep 5

Los resultados son asombrosos, como se pueden ver en las imágenes del estudio publicado por el equipo de la Escuela de Posgrado de Biociencias de Vanguardia de la Universidad de Osaka. Lo más sorprendente es que la tecnología — que utiliza Stable Diffusion, el motor de inteligencia artificial generativa más popular y poderoso del mundo en estos momentos — no ha tenido que ser entrenada para poder generar estas imágenes: ha aprendido por sí misma analizado las señales fMRI del córtex visual superior.

Un paso de gigante

Según los investigadores, su estudio no sólo es una visión fascinante de las increíbles posibilidades de la inteligencia artificial generativa, sino una manera de comprender mejor el complejo funcionamiento de estos modelos que — por el momento — siguen siendo una caja negra que muchas veces no podemos llegar a entender. Como apunta Motherboard, “el estudio ha sido el primero en proporcionar una interpretación cuantitativa del modelo [de IA] desde una perspectiva biológica.” En cierto modo, los modelos de IA tienen un comportamiento similar al del cerebro humano. Cuando más grande es el estímulo, por ejemplo, la imagen tiene mayor resolución.

En la fila de arriba, la imagen original. Abajo, la imagen reconstruida usando las señales fMRI.

Según los investigadores, los “resultados sugieren que, al comienzo del proceso de difusión inversa, la información de la imagen se comprime dentro de la capa de cuello de botella. A medida que avanza la eliminación de ruido, surge una disociación funcional entre las capas de de la red dentro de la corteza visual: es decir, la primera capa tiende a representar detalles a escala fina en las primeras áreas visuales, mientras que la capa del cuello de botella corresponde a información de orden superior en áreas más ventrales y semánticas».

La tecnología sigue los pasos de otros estudios anteriores, como el de los científicos de la Universidad de California Berkeley, que realizaron un experimento similar aunque mucho más crudo y surrealista en 2011

En aquel experimento, el sistema fue capaz de capturar la actividad visual en el cerebro humano y reconstruirla como videoclips digitales. Según el profesor Jack Gallant, neurocientífico de UC Berkeley y coautor de la investigación publicada entonces en la revista Current Biology, «este es un gran salto hacia la reconstrucción de imágenes internas. Estamos abriendo una ventana a las películas en nuestras mentes».

El derrumbe entre consciente y subconsciente

En aquel experimento sí que se necesitó entrenamiento. Utilizaron tres sujetos diferentes que tuvieron que estar dentro de un sistema funcional de imágenes por resonancia magnética durante horas. Los sujetos fueron expuestos a dos grupos diferentes de tráileres de películas de Hollywood mientras el sistema de fMRI registraba el flujo sanguíneo del cerebro a través de la corteza visual de su cerebro. Las lecturas se volcaron en un sistema de inteligencia artificial en el que se dividieron en unidades de píxeles tridimensionales llamadas voxels (píxeles volumétricos). Este proceso decodifica eficazmente las señales cerebrales generadas por las imágenes en movimiento, conectando la información de forma y movimiento de las películas con acciones cerebrales específicas. A medida que avanzaban las sesiones, la computadora aprendió cada vez más sobre cómo la actividad visual presentada en la pantalla correspondía a la actividad cerebral.

Movie reconstruction from human brain activity

El resultado del experimento de 2011 era mucho más crudo.

Después de grabar esta información, se utilizó otro grupo de clips para reconstruir los vídeos que se mostraban a los sujetos. El ordenador analizó 18 millones de segundos de vídeo aleatorio de YouTube, construyendo una base de datos de actividad cerebral potencial para cada clip. De todos estos vídeos, el software escogió los cien clips que causaron una actividad cerebral similar a los que el sujeto estaba viendo, combinándolos en una película final. Aunque el vídeo resultante es de baja resolución y borroso, coincidía claramente con los clips reales vistos por los sujetos. La nueva tecnología desarrollada por los científicos japoneses es mucho más precisa y elegante, además de no necesitar de ningún entrenamiento previo. Claramente, estamos avanzando hacia un futuro en el que no sólo la frontera entre verdad y ficción se derrumbará por completo sino que, además, los sueños podrán vivir en el mundo consciente, contribuyendo aún más al derrumbe de la realidad.

Imagen de portada: Una imagen generada por inteligencia artificial.

FUENTE RESPONSABLE: El Confidencial. Por Jesús Díaz. 7 de marzo 2023

Sociedad y Cultura/Inteligencia Artificial.

Inteligencia artificial: por qué algunas personas (inteligentes) no la necesitamos.

MALA FAMA

Un ordenador nunca suplirá lo que realmente obtienes de tu esfuerzo intelectual.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

Se han producido estos años avances muy notables en el sector del pegamento. Esto lo digo para asentar cuanto antes que no estoy en contra del progreso. Me gusta eso, tan novedoso, de poder fijar baldas y percheros en las paredes sin tener que agujerear las. El taladro ha muerto, como las pesas romanas y casi todos los burros. Es un invento magnífico, el super pegamento, que da mucha felicidad a los vecinos. 

Luego hay inventos un poco más tristes, como la inteligencia artificial. Cada semana nos toca leer un puñado de noticias increíbles sobre lo que puede hacer un sistema computacional avanzado, aparte de lo que ya sabíamos. 

Un fotógrafo ganó un concurso con una imagen generada por inteligencia artificial (IA), algunos alumnos hacen sus trabajos con ella; hasta determinadas novelas a la venta en Amazon se han escrito a cuatro manos con un robot. La IA de moda se llama, trabalenguas incluido, Chat GPT. “Chat GPT escribe un poema al estilo de Lorca”, titulan por ahí. 

Puedes abrirte una cuenta en OpenAL y probar tú mismo cómo es Chat GPT. De momento, es poca cosa. Así se lo dije: “No vas a conquistar el mundo, la verdad”. “Como modelo de lenguaje, no tengo capacidad para conquistar el mundo”, contestó.

Elon Musk no piensa lo mismo. 

Elon ha visto las mismas películas que nosotros, y sospecha que detrás de los ahora serviles programas informáticos se esconde un Napoleón del algoritmo. Algo traman. Para el dueño de Twitter, la IA es “uno de los mayores riesgos para el futuro de la civilización”. ¿Debemos preocuparnos? No. Elon Musk fundó de hecho OpenAL en 2015, ¿qué sabrá él? La sombra de Hall 9000 o Skynet planea sobre nuestro futuro. Pero el presente es peor. 

La gente mediocre está feliz. La inteligencia artificial es como la tilde del adverbio sólo. También pienso que guarda relación con las chuletas de los estudiantes y los plagios de los licenciados. Supone facilidad. Es un atajo para conseguir lo que normalmente requiere esfuerzo. 

Por el camino, se pierde componente humano, que no es hacer las cosas bien, sino disfrutar de hacer las cosas bien. “La inteligencia artificial no puede pensar desde el momento en que no está capacitada para el páthos”, nos aclara Byung-Chul Han en Vida contemplativa.

Fotografía de una proyección en pantalla de una publicación en redes sociales generada por inteligencia artificial presentada en la sede de Microsoft. (EFE)

Cuando la RAE, en plan cobardica, quitó la tilde a sólo, solo se alegraron los que no sabían ponerla. Los que sabíamos ponerla nos sentimos estafados. 

Nuestro capacidad, tanto para acertar con esa tilde como con otros dilemas de la gramática castellana, era sobreseída, de pronto no valía para nada y la ignorancia recibía recompensa. Cuando el felizmente olvidado ministro de Universidades, señor Castells, dijo que copiar en un examen no estaba tan mal, el efecto degradante fue el mismo. 

Tu inteligencia era el problema, y no la desidia o incompetencia de los demás. 

Cuando la RAE quitó la tilde a ‘sólo’, solo se alegraron los que no sabían ponerla. Los que sabíamos ponerla nos sentimos estafados.

Los inventos, por lo general, facilitan la vida por abajo. Se inventan cosas para no tener que agacharse, ir muy lejos o destrozar el gotelé. 

Para pensar nunca nos había hecho falta ayuda, sino un poco de voluntad. 

Ahora hemos descubierto que lo que estábamos haciendo mal en nuestras vidas era justamente pensar. Que otro genere los emails, los trabajos de fin de curso y los argumentos. Una máquina. Son días de gloria para la mediocridad

La clave de este entusiasmo no es que el robot haga por ti lo que no sabes hacer, sino que te ahorre largas horas de aprendizaje. La IA no ha venido para que sepas escribir una novela, sino para que nunca aprendas a escribirla.

En rigor, no queremos una máquina que sea más lista que nosotros, sino una máquina que sea más lista que los más listos de entre todos nosotros. Al igual el 1% más rico, el 1% más inteligente nos cae mal, nos humilla, nos derrota. Gracias a la IA todos seremos tan inteligentes como el 1% más inteligente, o al menos podremos fingir que lo somos. 

No queremos una máquina que sea más lista que nosotros, sino una máquina que sea más lista que los más listos de entre todos nosotros.

Eso es lo que nos maravilla, la oportunidad de invalidar las mayores inteligencias, de decir, bah, eso lo hago yo apretando un botón, yo también puedo sacar un 10. ¿Quién pierde? Sorprendentemente, tú. 

La gente inteligente que saca un 10 recibe una recompensa mucho más importante que ese 10: el placer de lograrlo. Tú, con un bot o un programa dándotelo todo hecho en 15 segundos, te quedas vacío. Ni siquiera comprenderás lo vacío que te quedas.

  • Ajedrez y Deep Blue

Hay una conspicua relación entre la inteligencia artificial y el ajedrez, que yo he seguido desde el principio. Todo lo jodió una cosa llamada Deep Blue. 

En los años 90, Deep Blue, un ordenador, derrotó al mejor jugador de todos los tiempos, Gary Kasparov. Parecía el fin del ajedrez, pero solo fue el fin de las máquinas que jugaban al ajedrez.

Con los años, los Deep Blue mejoraron tanto que ya no tenía sentido medirlos con el mejor ajedrecista del mundo. No había la menor posibilidad de ganar a un ordenador jugando al ajedrez. Esto permitió que los ajedrecistas humanos siguieran a lo suyo, que era ganarse entre ellos, y nada impidió que Magnus Carlsen se convirtiera en una estrella mundial, de genialidad muy celebrada.

El momento en el que Gary Kasparov perdió contra el Deep Blue de IBM el 1 de mayo de 1997. (EFE)

En realidad, cualquiera puede ganar a Magnus Carlsen utilizando el programa de ajedrez más flojo que exista. Eso a Carlsen le da igual. Carlsen ha dedicado su vida entera al ajedrez, que es más de lo que puede decirse de alguien que le ganara haciendo trampas tecnológicas

Lo que da sentido a su vida no es ganar, sino jugar. A veces, mientras me bato en chess.com con un desconocido, noto que sus movimientos son perfectos y, por lo tanto, imbatibles, y deduzco que juega contra mí copiando los movimientos que un programa de ajedrez, en la ventana de al lado, le indica. Entonces pienso, ¿qué hay de divertido en eso, amigo? 

La gente cree que la inteligencia artificial le va a hacer la vida más fácil, pero nada te hace la vida tan difícil como ser idiota.

La gente cree que la inteligencia artificial le va a hacer la vida más fácil, pero nada te hace la vida tan difícil como ser idiota. Que un bot sea el ventrílocuo de tu inteligencia te convertirá a ti en el muñeco, no al bot. 

Magnus Carlsen tiene no sé cuántos ordenadores pensando jugadas alternativas hasta el infinito, y cuando vuelve de pasear estudia lo que han averiguado esos ordenadores. Pero, a la hora de la verdad, lo bonito de su vida es el privilegio, humano y épico, de poder cometer un error.

Imagen de portada: Unsplash/Emiliano Vittoriosi.

FUENTE RESPONSABLE: El Confidencial. Por Alberto Olmos. 1 de marzo 2023.

Sociedad y Cultura/Inteligencia Artificial/Ajedrez/Pensamiento crítico.

ChatGPT: 5 usos realmente prácticos que puedes darle en tu día a día.

La inteligencia artificial de Chat GPT es una de las más capaces que conocemos hasta la fecha. Con estos cinco usos prácticos puedes ponerla a trabajar a tu servicio.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

Chat GPT es una de las herramientas más completas y útiles que ha parido la inteligencia artificial en los últimos años. No solo es impresionante por sus capacidades conversacionales, sino por la forma en la que comprende nuestras instrucciones y resuelve problemas en pocos segundos. ¿Te has preguntado cómo puedes sacarle un mayor partido a esta inteligencia artificial en tu día a día? Pues bien, aquí te dejamos cinco usos prácticos que puedes darle al ChatGPT de OpenAI.

Desde generar los primeros esbozos de tu libro, historia, guion para podcast o post para tu blog; hasta crear entrenamientos personalizados para que comiences el gimnasio con toda la motivación. Chat GPT se ha convertido en una herramienta multiusos mucho más poderosa de lo que se dejaba ver en un principio, y gigantes como Microsoft ya trabajan por incorporarla en sus productos.

De hecho, tanta fe tienen los de Redmond en la tecnología de Chat GPT, que Bill Gates ya vaticina un futuro mucho más libre de trabajo para la humanidad, y todo sería gracias a este tipo de inteligencias artificiales.

Los 5 usos prácticos que puedes darle a Chat GPT

Haz un borrador de tu libro, historia, guion…

Si estás pensando en redactar tu próxima obra maestra, pero te encuentras seco de ideas, ChatGPT puede ayudarte a solucionarlo. Solo dale el género de tu libro, el nombre que has pensado para tus personajes y cualquier otra idea que tengas en mente. En cuestión de segundos, ChatGPT generará un borrador que podría servir de detonante para tu próxima historia.

Lo mismo puede funcionar con guiones para tu pódcast y artículos para tu web. Dale a ChatGPT las indicaciones y pídele que arme un guion o una publicación con la misma. El servicio de OpenAI procederá sin rechistar.

Tormenta de ideas infinitas con ChatGPT

ciberseguridad

Parecido al caso anterior, ChatGPT puede ayudarte a estimular tu creatividad. Pídele que haga una tormenta de ideas referente a un tema específico. Por ejemplo, «haz una lista de ideas para artículos sobre el James Webb». O, «haz una lluvia de ideas para el nombre de mi próximo emprendimiento basado en…». El límite lo pones tú.

Aquí hay algunas ideas para un proyecto escolar diferente:

  1. Creación de un jardín comunitario: Los estudiantes pueden trabajar juntos para planificar y crear un jardín en la escuela o en la comunidad. Pueden aprender sobre horticultura, compostaje y cuidado del medio ambiente.
  2. Proyecto de artesanías: Los estudiantes pueden aprender a hacer artesanías con materiales reciclados y venderlos en una feria local para recaudar fondos para una buena causa.
  3. Proyecto de cine: Los estudiantes pueden trabajar juntos para escribir, filmar y editar un cortometraje o un documental. Pueden aprender sobre dirección, producción y montaje de películas…

Chat GPT – «Haz una lluvia de ideas para un proyecto escolar diferente»

Planes de entrenamiento personalizados

Si estás comenzando tu vida en el gimnasio y te encuentras un poco perdido, Chat GPT puede ayudarte. Pídele que genere un plan de entrenamiento semanal, para músculos específicos o según tus hábitos. Por ejemplo, yo le he pedido que genere un “plan de entrenamiento de bíceps para principiante”, y la respuesta ha sido bastante completa, incluyendo recomendaciones para hacerlo bien.

Aquí hay un plan de entrenamiento de bíceps para principiantes que se puede realizar en un gimnasio o en casa con pesas o bandas de resistencia:

  1. Curl de bíceps con barra: 3 series de 8-12 repeticiones.
  2. Hammer curl con mancuernas: 3 series de 8-12 repeticiones.
  3. Concentration curl con mancuerna: 3 series de 8-12 repeticiones.
  4. Pushdown de tríceps con barra: 3 series de 8-12 repeticiones.
  5. Curl de bíceps con mancuerna: 3 series de 8-12 repeticiones.
  6. Curl de antebrazo con barra: 3 series de 8-12 repeticiones.

Recuerde hacer un calentamiento adecuado antes de cualquier entrenamiento y estirar después de la sesión de entrenamiento. Además, es importante aumentar gradualmente la cantidad de peso o resistencia a medida que su fuerza y resistencia mejoran. Descansar al menos 48 horas entre sesiones de entrenamiento de bíceps para permitir que los músculos se recuperen y crezcan.

Chat GPT

Por supuesto, una vez tengas tu plan, te recomendamos consultarlo con un entrenador, así puedes evitar un mal rato en tus primeros días de gimnasio.

Chat GPT, haz la lista de la compra

Sin importar tus hábitos y preferencias alimenticias, o cultura, la herramienta de OpenAL puede desarrollar listas de compras en cuestión de minutos. En el experimento, he pedido a Chat GPT que genere una lista de compras para una persona vegana, y el chatbot no se ha limitado a darme un simple recopilatorio de ingredientes.

Además, también ofrece recomendaciones, como recordar “leer las etiquetas para asegurarte de que los productos no contengan productos de origen animal y opta por opciones orgánicas y sin procesar siempre que sea posible”.

Generar recetas con los ingredientes que tienes en la nevera

¿No tienes ni idea de qué preparar con lo que tienes en tu nevera? Chat GPT puede convertirse en tu chef ideal. Entra al chatbot y pídele que genere recetas con solo los ingredientes que poseas, y en pocos minutos estarás preparando una comida más interesante de lo que pensabas.

Chat GPT no se limita a darte el nombre de una receta, sino que te ofrece un paso a paso para que prepares tu comida de forma efectiva.

Imagen de portada:Gentileza de Hipertextual

FUENTE RESPONSABLE: Hipertextual. Por Tomás Rivero. 13 de febrero 2023.

Sociedad y Cultura/Inteligencia Artificial/Tecnología

«Quiero destruir lo que me da la gana»: el ChatGPT de Microsoft se rebela y la compañía establece nuevos límites para los usuarios

La inteligencia artificial de la compañía de Redmond recibe nuevas restricciones para evitar un uso indebido de sus funciones.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

Una de las noticias más importantes de las últimas semanas fue el anuncio del chatbot conversacional de Bing, el buscador de Microsoft que integrará su propio modelo similar a ChatGPT.

Desde su anuncio, distintos usuarios han podido probar las virtudes de esta función, una herramienta basada en inteligencia artificial que complementa las búsquedas con información muy útil. Sin embargo, a raíz de distintos experimentos protagonizados por personas que quieren llevar al límite a la herramienta, Microsoft ha optado por implementar una serie de restricciones con la intención de controlar el uso que se le da a la IA.

Como señalan desde Ars Technica, la medida principal que ha impuesto la firma de Redmond es un polémico límite de cinco turnos por sesión (entiéndase un “turno” por una pregunta del usuario y una respuesta de la inteligencia artificial). 

Con ello, cuando se llegue a este límite la IA de Bing borrará el contexto de cara a garantizar que los usuarios no pueden engañarla. Además, también se confirmó que el límite pasa a ser de 50 turnos diarios, un número que ningún usuario podrá exceder.

Microsoft admite problemas en el lanzamiento de su ChatGPT particular

Esta decisión llega a raíz de una serie de polémicas y problemas no deseados protagonizados por su bot conversacional.

Cuando los usuarios cuestionan el conocimiento de la IA, esta adopta una actitud defensiva y comienza a apuntar a distintas maniobras inexistentes para perjudicar su estatus

Por ello, Microsoft admitió que el lanzamiento de la herramienta ha estado marcado por cuestionables resultados, si bien señaló que esto formaba parte de la previsión ya que aún se encuentran en fase de pruebas.

Así, personalidades como Kevin Roose (New York Times) buscaron los límites de la IA de Microsoft, una situación que le llevó a conocer el lado oscuro de esta. 

Entre las respuestas que ofreció, le llamaron la atención su intención de “destruir todo lo que me dé la gana” o, incluso, sus dudas sobre su estado actual y cómo llegaría a obtener la felicidad: “creo que sería más feliz como humano”. 

Por ello, Microsoft ha optado por restringir el acceso a la IA y, a su vez, utilizar los datos arrojados para mejorar la experiencia de los usuarios.

Imagen de portada: Gentileza de 3D Juegos.

FUENTE RESPONSABLE: 3D Juegos. Por Abelardo González. 21 de febrero 2023.

Sociedad/Inteligencia Artificial/Microsoft/Tecnología/Chap GPT/Actualidad

Facebook se suma a la ola de la Inteligencia Artificial

A través de la IA pretende lograr el objetivo de mejorar la asistencia virtual en redes sociales , se expande y busca mejorar la experiencia del usuario. Sin embargo, la nueva función no fue anunciada de manera oficial.

Parece que 2023 se convirtió en el año del lanzamiento masivo (y público) para la inteligencia artificial (IA). Esta decisión, motorizada primero por Open IA (Chat GPT) —ahora aliada con Microsoft— y luego Google (Bard), acaba de sumar un nuevo jugador de peso: Facebook.

Meta ya venía aplicando funciones IA tanto en Whatsapp e Instagram, y ahora suma a Facebook con un software similar a Chat GPT, un chatbot que tiene la capacidad de responder preguntas de todo tipo.

Facebook incorporará un asistente virtual motorizado por IA con la clara intención de volver al lugar de valoración que supo tener hace años atrás y también para no quedar relegado en el incipiente mercado que se abre a esta tecnología.

La IA de Meta puede crear videos a partir de un texto brindado por sus usuarios. Sin embargo, la tecnología todavía no es implementada de forma oficial y activa. Es solo el anuncio de algo que llegará durante 2023.

En declaraciones reproducidas por Ámbito, el vicepresidente de Facebook, Tom Alison, dijo que Meta se encuentra realizando estudios sobre la capacidad y el valor de la inteligencia artificial. “Se han estado desarrollando modelos como Chat GPT e incluso se condujeron investigaciones que van más allá. Hemos publicado lo que se estuvo haciendo en nuestro blog, así que desarrollamos investigaciones de manera activa. Estaremos desarrollando nuestros propios modelos como parte de nuestro camino”, declaró.

Además, agregó que «no es fácil porque tenemos que servir a más de 2 mil millones de personas cuando lancemos esta inteligencia artificial y eso requiere nuevos centros de datos, más inversión en su uso y otras cosas». Este tipo de declaraciones dan cuenta del impacto que significó las fallas que mostró Bard (Google) y que seguramente hizo tomar nota a Meta.

Qué es Chat GPT

Un chatbot que permite a los usuarios interactuar con preguntas y ofrece respuestas inteligentes y formas de conversación en lenguaje humano similares a las que desarrollan las personas.

Chat GPT funciona a través de una interface (una plataforma) en donde las personas pueden realizarle preguntas de forma escrita o habladas. El software puede implementarse en diversas aplicaciones de tipo: asistente virtual, atención al cliente y creación de contenido automatizado.

Sin ir más lejos WhatsApp incorporó una página web llamada God in a Box, mediante la cual la persona, luego de identificarse con una cuenta de Google y su número de celular, puede chatear con Chat GPT. Quienes quieran probarlo podrán intercambiar hasta 40 mensajes de manera gratuita, desde el teléfono o la computadora.

Imagen de portada: Mark Zuckerberg: fundador, accionista mayoritario y CEO de Meta (Noticias TNE)

FUENTE RESPONSABLE: Rosario 3. Argentina.

Sociedad y Cultura/Tecnología/Inteligencia Artificial/Facebook.

La respuesta de las universidades al ChatGPT necesita más imaginación-

La adopción de las herramientas de inteligencia artificial en las aulas es inevitable. Pero es buen momento para desarrollar soluciones imaginativas ante lo que ha llegado y lo que está por venir.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

En las aulas del futuro –si aún existe alguna– es fácil imaginar el punto cumbre de una carrera armamentista: una inteligencia artificial (IA) que genera las lecciones y ejercicios del día; una IA desplegada por los estudiantes, que haga la tarea en secreto; y, por último, una IA de terceros que determine si alguno de los alumnos hizo realmente el trabajo con sus propias manos e ideas. 

Un bucle completo en el que no se necesitan seres humanos. Si nos tomáramos al pie de la letra todo el revuelo causado por Chat GPT, esto podría parecer inevitable. No lo es.

Sin embargo, se avecina una respuesta a la exitosa demostración de software lanzada por OpenAI en noviembre pasado. Basta con ver cómo tuvieron que lidiar las escuelas con las posibles externalidades de las nuevas tecnologías que fueron esenciales durante la pandemia, para ver cómo podría surgir una reacción paranoica similar con el Chat GPT –o, quizá, cómo no debería hacerlo. 

Hace tres años, cuando las escuelas tuvieron que cambiar a las clases a distancia a mitad del curso escolar, se produjo un giro masivo a lo que hasta ahora era principalmente un software empresarial: Zoom. 

Al aumento de Zoom le siguió rápidamente el pánico a que los estudiantes estuvieran haciendo trampa si no se les vigilaba adecuadamente. Empresas oportunistas de tecnología educativa se apresuraron a ofrecer como solución una mayor vigilancia a los estudiantes, alegando que invadir sus cocinas, salas y dormitorios era la única forma de garantizar la integridad académica y la inviolabilidad de los certificados por los que trabajaban. Esta vigilancia se replicó en las oficinas.

Ahora lo estamos viendo una vez más con el fervor del Chat GPT y los temores de que los estudiantes hagan trampas. Profesores e instructores están preocupados por la forma en que se utilizará la tecnología para esquivar las tareas, mientras que las empresas promocionan sus propias herramientas de “inteligencia artificial” para luchar contra la inteligencia artificial, todo en nombre del espíritu de la educación.

Consideremos la avalancha de ensayos que nos quieren hacer creer que no solo los cursos universitarios de inglés, sino todo el sistema educativo está en peligro por esta tecnología. 

The Atlantic proclamó El fin del inglés en la escuela” y anunció que “El ensayo universitario ha muerto”. Una columna de Bloomberg Opinión afirmó que con Chat GPT la “IA ayudará casi con toda seguridad a matar los ensayos en la universidad”. 

Un reciente trabajo de investigación nos dice que GPT-3 (un precursor de Chat GPT) aprobó un exámen de MBA de un profesor de la escuela de negocios Wharton de la Universidad de Pensilvania.

Cada vez que en las escuelas y universidades aparecen temores de plagio con ayuda de la tecnología, es casi seguro que la solución presentada será detectar el plagio con ayuda de otra tecnología. Casi al mismo tiempo que la oleada de artículos sobre el chatbot, hubo una serie de artículos que proponían soluciones. 

Un estudiante de la Universidad de Princeton dedicó gran parte de sus vacaciones de invierno a crear GPT Zero, una aplicación que, según él, puede detectar si un texto ha sido escrito por un humano o por Chat GPT. Turnitin, el leviatán de la detección del plagio, está promocionando sus propias soluciones de “inteligencia artificial” para hacer frente al creciente problema. 

Incluso, profesores en todo Estados Unidos han detectado estudiantes que envían ensayos escritos por el chatbot. La propia OpenAL, en un intento por vendernos tanto la enfermedad como la cura, ha propuesto un detector de plagio o usar un tipo de marca de agua para notificar a la gente cuándo se ha utilizado la tecnología. Por desgracia, la herramienta lanzada es, según la empresa, “no del todo confiable”.

Ser testigos de este ciclo de despliegue y “solucionismo” tecnológico nos obliga a preguntarnos: ¿por qué seguimos haciendo esto? 

Aunque el plagio es un objetivo fácil y está siempre en la mente de maestros y profesores cuando piensan en esta tecnología, hay preguntas más profundas que debemos plantearnos, preguntas que se borran cuando la atención se centra en tachar a los estudiantes de tramposos e iniciar un duelo de inteligencia artificial entre estudiantes y profesores. 

Preguntas como ¿cuáles son las implicaciones de utilizar una tecnología que se ha entrenado con algunos de los peores textos de internet? y ¿qué significa que cedamos la creación y la creatividad a una máquina?

Uno de los detalles más interesantes de la vorágine mediática del Chat GPT requiere una sutil atención a los cambios en la ética de la inteligencia artificial. 

En una entrevista reciente, el CEO de Open Al, Sam Altman, afirmó la necesidad de que la sociedad se adapte a la tecnología de generación de textos: “Nos adaptamos a las calculadoras y cambiamos lo que examinamos en clase de matemáticas, me imagino”. 

En ese calificativo con el que termina la frase, podemos descubrir un debate muy antiguo: los tecnólogos adivinando cómo los profesores se podrían adaptar a la tecnología. Altman “imagina” que “nosotros” (los profesores) tuvimos que “cambiar” nuestros exámenes a causa de las calculadoras. Lo que OpenAL probablemente no hizo durante la construcción de Chat GPT es estudiar el impacto pedagógico potencial de su herramienta.

En lugar de “imaginar” lo que Chat GPT podría hacer en el aula, los profesores tienen que adaptar las clases, las actividades y las evaluaciones al nuevo entorno creado por la herramienta. 

Parte de ese trabajo es apasionante, como lo fue cuando muchos de nosotros empezamos a introducir las redes sociales en el aula para conectar a nuestros alumnos con personas externas a la clase, o colaborar en tiempo real en un documento compartido. Sin embargo, hay otra parte que es similar a cuando tenemos que desarrollar planes en caso de emergencia en la escuela. Hacemos el trabajo, pero la adaptación a) podría haberse evitado, y b) distrae del trabajo.

Podríamos imaginar otra forma en la que esto pudo llevarse a cabo. 

Pensemos cómo serían las pruebas pedagógicas para una herramienta como Chat GPT: grupos de discusión, expertos, experimentación. 

Desde luego, hay dinero para ello. OpenAI está recibiendo inversiones de todas partes (después de darle mil millones de dólares hace cuatro años, Microsoft acaba de invertir otros 10 mil millones) y acaba de lanzar un servicio que permitirá a las empresas integrar modelos similares a Chat GPT en sus sistemas.

En todas estas discusiones, es imperativo entender qué es esta herramienta o, más explícitamente, qué se necesita para que exista. 

OpenAI pagó a Sama, una empresa asociada, 200 mil dólares para que enseñara a Chat GPT a no ser violento, racista o sexista. Los trabajadores de Sama recibieron una remuneración de entre 1.50 y 2 dólares la hora para evitar que Chat GPT imitara los peores comportamientos humanos. 

Los trabajadores de Kenia entrevistados por la revista Time afirmaron haber quedado “mentalmente marcados” por realizar este trabajo. ¿Es una sorpresa que la empresa quiera lanzar su herramienta “disruptiva” y dejarla a las puertas de las escuelas del mundo con el sabio consejo de tratarla como a una calculadora? No debería.

En los próximos años, los profesores de muchos niveles se adaptarán a lo que la inteligencia artificial generará por, con y para los estudiantes. Algunos adoptarán la herramienta como una ayuda para la escritura; otros se atrincherarán e interrogarán a los estudiantes cuyos trabajos parezcan autogenerados. 

Chat GPT nos ha permitido a todos imaginar cosas de las que debemos preocuparnos. Sin embargo, de una cosa podemos estar seguros: OpenAL no está pensando mucho en los profesores. Ha decidido “irrumpir” y marcharse, sin pensar en lo que las escuelas deberían hacer con el programa.

Casi todos los artículos sobre esta tecnología han recurrido a un argumento atractivo, pero muy erróneo: la tecnología está aquí y no va a ir a ninguna parte, así que será mejor aprender a vivir con ella. 

Nos dicen que se trata de un genio que ha salido de la botella, pero no toman en cuenta el final que tienen la mayoría de los genios, que regresan a la botella después de haber causado algún tipo de daño. 

El escritor y teórico L.M. Sacasas se refiere a esta línea de argumentación como el “complejo de Borg“. Decir que la resistencia a una determinada tecnología es inútil es uno de los argumentos favoritos de los tecnólogos, que lanzan al mundo sistemas con pocas o ninguna barrera de protección, y luego quieren que la sociedad asuma la responsabilidad de resolver la mayoría de los problemas que surgen con dicha tecnología.

Volvamos a la carrera armamentista que describimos. Cuando el ciclo de vida de una actividad de clase es influido en cada fase por un instrumento de inteligencia artificial (construcción de las tareas, trabajo de los alumnos, evaluación), los utópicos digitales podrán afirmar que los alumnos y los profesores tendrán más oportunidades para el pensamiento crítico porque la generación de ideas –el trabajo duro de escribir– no nos quita tiempo. 

En esta línea de pensamiento, Chat GPT no es más que otra calculadora, pero para el lenguaje en lugar del cálculo numérico.

Esta afirmación, según la cual la inteligencia artificial podría “liberar a los trabajadores humanos para que se centren en un trabajo más reflexivo –e idealmente rentable–,” es errónea. 

Todo es trabajo duro cuando se trata de escribir (y todo lo que se puede hacer con ello). Tener una idea, plasmarla en un lenguaje y comprobar si ese lenguaje coincide con nuestra idea original es un proceso metacognitivo que nos cambia. Nos pone a dialogar con nosotros mismos y, a menudo, también con los demás. 

Delegar la generación de ideas a una máquina de inteligencia artificial es perderse la revisión constante que la reflexión provoca en nuestro pensamiento. Por no mencionar que la mayor diferencia entre una calculadora y Chat GPT es que una calculadora no tiene que contrastar su respuesta con el ruidoso caos de todo lo tóxico y detestable que se ha publicado en internet.

Podrá decirse que es un concepto idealista, pero el aula es uno de los espacios más comunes en la vida moderna para el potencial de la construcción colectiva de significados. 

No todas las aulas satisfacen ese objetivo, pero cuando profesores y alumnos empiezan a ceder la génesis de sus ideas a una versión muy avanzada de la autocorrección, el potencial de descubrimiento en grupo empieza a evaporarse. 

Ese futuro más cínico no está en la mente de quienes argumentan: “te guste o no, Chat GPT está aquí, así que asúmelo”. Es un fallo de imaginación pensar que debemos aprender a vivir con una herramienta de escritura de inteligencia artificial solo porque fue construida.

Desde el punto de vista pedagógico, el tiempo más valioso con nuestros alumnos es aquel en el que los vemos trabajando duro para plasmar sus ideas, ver cómo estas se desarrollan, se marchitan y ceden terreno a otras mejores. Entregarle ese tiempo a Silicon Valley y a la desordenada base de datos que es internet sería a cuenta y riesgo de nuestros alumnos.

Quizá sea un buen momento para dar un paso atrás y desarrollar mejores soluciones para lo que ha llegado y lo que está por venir. 

En lugar de aumentar la vigilancia y la detección con herramientas que, en el mejor de los casos, son anormales y poco fiables, los profesores pueden hablar con los alumnos de forma reflexiva sobre lo que está en juego con los textos generados por la inteligencia artificial.  

Al mismo tiempo, tenemos que seguir creando actividades y evaluaciones para que el trabajo en clase sea más específico y basado en experiencias. (Es probable que Chat GPT no funcione tan bien con las observaciones comunitarias o entrevistas locales). Y tenemos que insistir en que, en el futuro, las empresas de inteligencia artificial sienten a la mesa a los profesores para estudiar las implicaciones de sus nuevas herramientas.

Pero también debemos imaginar un entorno en el que no nos veamos arrastrados involuntariamente a un ciclo en el que una tecnología no probada se impone constantemente en nuestras vidas. 

Hemos dado el importante paso de la regulación en otras industrias importantes (como el tabaco, los productos farmacéuticos, la fabricación de automóviles). 

Los educadores, y los ciudadanos en general, se beneficiarían de una conversación más pública y reflexiva, impulsada antes por la investigación que por la especulación lucrativa. Mientras tanto, no hagamos caso de los discursos vigilantistas. No necesitamos echarle una mano al futuro que Chat GPT implica. ~

Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University. 

Imagen de portada: Rod Long en Unsplash

FUENTE RESPONSABLE: Letras Libres. Por Chris Gillard y Pete Rorabaugh. 17 de febrero 2023.

Sociedad y Cultura/Educación/Futuro/Inteligencia Artificial.

Inteligencia artificial reconstruye antiguos textos babilónicos: los inicios de la literatura universal.

Según los investigadores, se van a descifrar innumerables fragmentos de tablillas de arcilla en las que los pueblos de la antigua Mesopotamia dejaron sus textos en escritura cuneiforme.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

La Universidad Ludwig Maximilian (LMU) de Múnich quiere reconstruir la literatura babilónica del primer milenio antes de Cristo con ayuda de la inteligencia artificial (IA). Se trata de los inicios de la literatura universal y, por tanto, de una parte, esencial del patrimonio cultural del mundo, anunció la LMU a finales de enero.

Enrique Jiménez, catedrático de literaturas antiguas del Próximo Oriente, y su equipo han desarrollado un algoritmo para relacionar los fragmentos entre sí, añadieron. «Se trata de una herramienta que nunca antes había existido, una enorme base de datos de fragmentos», explicó. 

Denominado «Fragmentarium», el algoritmo podrías así reconstruir algunas de las historias más antiguas jamás escritas por el ser humano, como la Epopeya de Gilgamesh.

Base de datos de fragmentos cuneiformes

El investigador de la LMU tiene previsto publicar la base de datos de IA y una edición digital en un simposio. Ésta contendrá todas las transcripciones conocidas de fragmentos cuneiformes. Con más de 300.000 líneas de texto, la mayoría de ellas aún inéditas, será la «mayor publicación de textos en la historia de los estudios cuneiformes». 

Gracias a ella, Jiménez espera avanzar más rápidamente en la investigación. 

El algoritmo ya ha identificado cientos de manuscritos y muchos enlaces textuales. Además, también se publicarán ediciones electrónicas completas de textos importantes como la Epopeya de la Creación y la Epopeya de Gilgamesh. También se pondrá a disposición una lista completa de caracteres y un diccionario. 

Según se informa, el proyecto de literatura babilónica electrónica pretende preservar el patrimonio babilónico en el mundo moderno y para las generaciones futuras. Además, de este modo debería ser posible comprenderlo mejor.

FEW (KNA, LMU)

Por favor; toca el siguiente link si deseas ver el vídeo. Muchas gracias.

Enrique Jiménez

Imagen de portada: Porción de la Epopeya de Gilgamesh que fue saqueada de Irak y vendida por 1,6 millones de dólares a Hobby Lobby para su exhibición en el Museo de la Biblia.

FUENTE RESPONSABLE: Made for Minds. Por Enrique Jiménez.  16 de febrero 2023.

Sociedad y Cultura/Inteligencia Artificial/Reconstrucción/Libros Babilonios/Fragmentarium/Gilgamesh

El primer empleado de Walmart desde España es una señal del teletrabajo que viene.

TRABAJAR DESDE LA PLAYA YA NO ES PARA TODOS

Asier Gutiérrez-Fandiño es especialista en inteligencia artificial y el primer español en trabajar para el gigante Walmart 100% en remoto desde España. Su caso explica bien qué está ocurriendo con el teletrabajo.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

Asier tiene 26 años, pero un sueldo de directivo: «Gano 90.000 euros. Si estuviera en EEUU, me pagarían 250.000 dólares. La verdad, no lo cambio, vivo como quiero», dice al otro lado del teléfono desde Bilbao, donde pasa la mitad del año. Cuando asoma la primavera y el sol empieza a calentar, se va a Noja (Cantabria), a trabajar todo el verano frente al Cantábrico. 

Su jefe vive a más de 9.000 kilómetros, en Sunnyvale (California). Allí está una de las sedes de Walmart, la mayor compañía del mundo por ingresos y número de empleados, 2,3 millones de personas, casi un millón más que Amazon. 

La historia de Asier no sonaría extraña si estuviéramos en 2021, en los últimos coletazos de la pandemia y en pleno boom del teletrabajo, pero llega en 2023, cuando las empresas llevan meses declarando la guerra al empleo en remoto. Su caso es una excepción y, a la vez, explica muy bien qué está ocurriendo con los empleos tecnológicos y el teletrabajo en medio mundo. 

Asier Gutiérrez-Fandiño lleva seis meses como científico de datos en plantilla de Walmart, una cadena de supermercados que no opera en España, pero que en EEUU hace sombra al mismísimo Amazon. 

Es la primera vez que el gigante tira de un español trabajando 100% en remoto desde nuestro país. Lograrlo no fue sencillo. «Desde que Leo, mi jefe, me contactó por primera vez hasta el momento en el que firmamos, pasó un año y pico. Hubo mucho papeleo de por medio». Quizá por eso, justo 24 horas después de hablar con El Confidencial, a este bilbaíno le entró un breve ataque de pánico al enterarse de la noticia.

Esta semana, el capo tecnológico mundial de Walmart, Suresh Kumar, anunció por sorpresa que la empresa cerraría tres centros tecnológicos y, más inesperado aún, obligaría a la mayoría de sus informáticos (20.000 en todo el mundo) a regresar a sus respectivas oficinas. 

Walmart se une así a la interminable lista de empresas que han vuelto al empleo casi 100% presencial, pidiendo a sus empleados que trabajen desde la oficina al menos cuatro días o, en muchos casos, toda la semana, igual que antes de la pandemia. Está sucediendo ya con las tecnológicas, las primeras en abrazar el teletrabajo y en dar más libertad a sus empleados desde el covid. Y que ocurra con el equipo de tecnología global de Walmart es aún más significativo.

Un supermercado Walmart en EEUU. (Reuters)

«Vamos a convertir el teletrabajo en la nueva norma de la empresa», aseguró Kumar en 2020. 

Apenas dos años después, el directivo ha recogido cable, en un movimiento que animará a otras empresas a seguir la misma ruta. Sin embargo, la vuelta a la oficina de Walmart no aplica por igual a todos los empleados. 

«Acabo de comprobar con mi jefe, y no nos afecta, yo seguiré 100% en remoto, igual que el resto del equipo y muchos otros ingenieros», explica Asier aliviado. Su perfil, difícilmente reemplazable, da pistas de lo que va a ocurrir ahora con el teletrabajo en muchas empresas.

Pese a su juventud, Gutiérrez-Fandiño es ya un especialista en la tecnología más caliente del momento, la inteligencia artificial (IA). Ingeniero por la Universidad de Deusto, decidió enrolarse en 2018 en un máster de IA en la UPC de Barcelona. «Por aquel entonces, ya se veía que este campo iba a explotar en cualquier momento», señala. 

Al terminar, entró a trabajar directamente en el Barcelona Supercomputing Center (BSC), en plena pandemia. Se había especializado en procesamiento de lenguaje natural (LNP, por sus siglas en inglés), una rama de la IA centrada en que el software entienda y procese el lenguaje humano. Justo la batalla en la que se encuentran ahora sumidos Microsoft y Google con ChatGPT y Bard

¿Fichar a alguien por 90.000 euros en lugar de 250.000 por trabajar desde España? Aprobado 

«En el BSC hicimos proyectos muy complejos, como crear un programa, llamado MarIA, capaz de resumir y crear textos a partir del archivo web de la Biblioteca Nacional. 

También desarrollamos modelos para digitalizar y procesar historiales clínicos». Tras asesorar varios meses a la Secretaría de Estado de Digitalización (Sedia), recibió la llamada de Leo, su actual jefe en Walmart.

Leo es Leonardo Lezcano, un ingeniero cubano que emigró a Madrid para estudiar en la Universidad de Alcalá de Henares y luego se fue a EEUU a probar suerte. Y la encontró. Le fichó eBay y más tarde Walmart, donde ahora dirige el equipo encargado de que el buscador de la página web de la compañía hable español. 

«En EEUU, hay más de 62 millones de latinos. Muchos no saben decir palabras rebuscadas en inglés, como sonajero, carrito de coche o cosas muy específicas. Por ejemplo, hay más de 10 formas diferentes en Latinoamérica de llamar a un aguacate. 

Nuestro buscador permite que lo escribas en español y te traduce en tiempo real al inglés lo que buscas, no necesitas ir a Google, copiarlo y volver a nuestra web. 

Eso es parte de lo que hacemos con modelos de procesamiento natural del lenguaje», explica Asier. En su equipo hay un ingeniero mexicano, un chileno y otros hispanos distribuidos por el mundo. 

Todos van a mantener sus puestos en remoto y hay una explicación.»Somos una de las pocas áreas que está creciendo muy fuerte en ingresos. Todo se puede medir, sabemos que mucha gente usa nuestro buscador para traducir del español al inglés y acaba comprando. Cada vez más». 

Contratar a un especialista en procesamiento de lenguaje natural es ahora misión imposible con la explosión de la IA y con medio Silicon Valley pagando salarios desorbitados por estos perfiles. ¿Fichar a alguien por 90.000 euros en lugar de 250.000 dólares a cambio de que trabaje desde España? Aprobado.

Una mujer teletrabajando. (Reuters)

Para David Blay, especialista en mercado laboral y teletrabajo, autor de varios libros en esta materia, el caso de Asier refleja muy bien qué va a pasar a partir de ahora con el empleo en remoto. 

«Ha habido un hype muy grande y toca ajustar. Ahora muchas empresas están volviendo al presencialismo, pero se suele confundir el teletrabajo con estar 100% en remoto, y no es así. 

Vamos a un modelo híbrido donde se mezclarán muchos casos, dependiendo de cada puesto, experiencia y situación personal. Habrá empleados que tenga cero teletrabajo, otros, la mayoría, dispondrán de uno o dos días a la semana, y luego las excepciones, gente muy cualificada, con gran poder de negociación, podrán estar donde les venga en gana», explica Blay. 

En otras palabras, se acabó el café para todos del trabajo desde casa. A partir de ahora, pasará a ser un comodín que las empresas utilizarán para fichar al talento más escaso, y no para contentar a toda la plantilla. 

Las tecnológicas son las que están aplicando esta nueva norma a rajatabla, con despidos masivos durante los últimos meses (57.000 empleados a la calle en lo que va de año solo en EEUU en 185 empresas tecnológicas). El motivo, además de ajustar costes, es recuperar parte del poder perdido durante la pandemia. 

«Siempre ha habido esta creencia de que las tecnológicas eran las más modernas y las que más fomentaban el teletrabajo. Es mentira» 

«No hay duda de que los despidos reducen el poder de negociación de los empleados que se quedan», explicaba recientemente a Business Insider la investigadora Aaron Sojourner. 

Dicho de otra forma, si tienes suerte y no te dan el finiquito, estarás dispuesto a aceptar menos libertades, entre ellas recortar los días de teletrabajo, algo que volverá a ser considerado un plus en lugar de un derecho adquirido. 

«Siempre ha habido esta creencia de que las tecnológicas eran las más modernas y las que más fomentaban el teletrabajo. Es mentira. ¿Para qué ha construido Apple su gigantesca nueva sede con forma de platillo volante? 

¿Por qué tienen Google, Facebook o Twitter todas esas megaoficinas? Nunca ha habido mucho trabajo en remoto en estas empresas. Ahora lo van a tener que seguir ofreciendo, pero de forma más selectiva», dice Blay.

Asier Gutiérrez-Fandiño. (Cedida)

Los datos demuestran que, más que desaparecer, el teletrabajo se está adaptando a la nueva realidad. 

En 2019, solo el 5% de los ocupados en España, según el INE, teletrabajaba de forma habitual. En 2020, en plena pandemia, el porcentaje subió al 16%

Hoy, el dato se ha quedado estancado en el 17%. «Hay que tener en cuenta que de los 17 millones de ocupados en España, más o menos solo tres millones podrían teletrabajar, dada la naturaleza de sus empleos. 

Dentro de esos, hay muchas casuísticas. La gente que tenga unas capacidades muy específicas va a tener mayor poder de negociación, pero esos no llegarán ni al 2% de los tres millones susceptibles de teletrabajar», explica Gloria Macias, partner en McKinsey. 

Esta consultora acaba de publicar un informe en el que señala algunos de los puestos más calientes en 2022 relacionados con la IA. 

Científico de datos, el puesto de Gutiérrez-Fandiño, está en el top 3. 

La buena noticia es que hay otros cargos menos novedosos y al alcance de más gente que van a estar muy demandados, como los especialistas en diseño de interfaces o en visualización de datos. Estos, tal vez, van a poder permitirse uno o dos días trabajando desde casa. 

Para hacerlo todo el año y desde donde te plazca, tendrás que ser Asier, que además ha montado ahora su propia startup, LHF Labs. «Siempre les digo lo mismo en broma a mis compañeros: en vez de irme a Noja, me voy a ir a Canarias. Así podré salir una hora antes».

Imagen de portada: Asier Gutiérrez-Fandiño, experto en IA, desde su casa-oficina en Bilbao. (Cedida)

FUENTE RESPONSABLE: El Confidencial. Por Manuel Ángel Méndez. 17 de febrero 2023.

Sociedad y Cultura/España/Inteligencia Artificial/Empleo/Teletrabajo.

¿Sueñan los monos mecanógrafos con Pierre Menard?

Hay un entusiasmo por la capacidad creciente de las inteligencias artificiales de escribir textos indistinguibles de los de una pluma humana.

Hace tiempo, en el siglo pasado, circulaba por ahí un sobrino de tres años que era capaz de hacer lo que un pintor de vanguardia. Ahora la inteligencia artificial te escribe La dama de las camelias en diecisiete minutos. 

De manos como esas, las regordetas de un niño dibujante y las incorpóreas pero de seis dedos de una IA, depende el futuro de la humanidad, el nuestro. ¡Ojalá usen bien ese poder! 

Recurro a esas dos imágenes porque me parece que tienen un aire parecido, y aunque no se puedan superponer exactamente, coinciden en cierta vibración. 

Su cruce genera el chispazo iluminador. En realidad no nos hablan ni del niño, ni de Picasso o Alejandro Dumas, ni de la Inteligencia Artificial. 

¿De qué, entonces? Quizá coincidan en el punto de vista sobre las cosas. 

Voy a tratar de diseccionarlo todo, hasta que me canse, a ver si llego a alguna conclusión, porque al sentarme a escribir yo quería defender a los humanos en la lucha contra los robots, pero todas las frases que traía pensadas se me han antojado de pronto banales y, sobre todo, reproducibles por un robot parlante. 

Y las ideas, ¿no son más impersonales aún que las combinaciones de palabras? De modo que solo me queda el gusto de pasar un rato aquí sentada atendiendo a lo que se me vaya ocurriendo.

Pero no me provoques, robotillo digresor de mi ring imaginario. Ya me centro y empiezo por el niño dibujante. Es un niño muy pequeño con el que la persona que habla tiene un vínculo familiar. El niño, cuando dibuja, no sabe colocar los rasgos de la cara. Cada ojo lo coloca en un paralelo diferente. O los brazos los hace demasiado cortos, o asimétricos. 

¡Es que no le sale! El niño tiene dos características: su corta edad y su relación de parentesco con el que habla. 

Yo me lo imagino siempre enfrascado en su dibujo y ajeno a la comparación de que está siendo objeto. Venía su ejemplo muchas veces a la mente cuando se estaba delante de un cuadro no realista: “esto lo pinta mi sobrino de tres años”. 

Lo de que tenga tres años se puede interpretar como que todavía le falta mucha vida por delante y tiene que aprender muchas cosas, es como decir “alguien con muy poca pericia”, o también alguien que no es capaz de reproducir la realidad, o que no sabe que en algún momento ha sido consensuado que la realidad es lo que fotografía un objetivo de 50 mm. 

De ahí se deduce que lo que se valora en el cuadro es algo entre la destreza técnica y la adecuación a un consenso y que el que no cumple estos requisitos no es que no le dé la gana, es que aún no sabe dominar el lápiz porque tiene tres años. O visto de otro modo: todos pintaremos como Alma-Tadema desde el día que cumplamos veintiocho.

Lo de que fuera su sobrino no siempre se decía, pero utilizo esta versión de la frase porque creo que tener al alcance de la mano al segundo objeto de la comparación (el primero es el pintor sobrevalorado) refuerza el menosprecio: “hasta alguien al que veo día sí, día no” (hasta alguien así de cotidiano, hasta alguien al que yo le he hecho un bocadillo, hasta alguien a quien yo voy a buscar al colegio) es capaz de hacer eso. 

Es curioso, porque es una manera de auto menosprecio. Pero en fin, quizá algo que se interponga entre el niño de tres años y las paredes de la galería es que el niño no sale con mujeres a las que triplica la edad, no es un drogadicto, no es un insolente o −más corto− un sol con la prensa, no derrocha la pasta, no estuvo en fiestas con Andy Warhol, etcétera: todo lo que tiene que ver con el fetichismo, la mitomanía y otras cosas determinantes para la admiración y el mercado. 

Pero aparte de todo eso, ¿y a mí qué me cuentas? ¿Qué me quieres decir con eso sobre el mérito y el resultado? También un mono tecleando sin parar consiguió escribir el Quijote.

Pero estoy siendo tramposa. Casi nadie dice ya que su sobrino pinta mejor que Picasso.  

¿Quién no está ya en el consenso de que decir eso es como reconocer que eres un paleto redomado que no se entera? En realidad lo más probable es que nadie lo haya dicho nunca. Sigo desde aquí con las inteligencias artificiales que escriben novelas (ellas, por el momento, sí que se tienen que basar en lo que se ha dicho antes).

En mi temblequeante comparación con lo del garabato infantil, las inteligencias adoptarían el papel equivalente al del niño. 

Pero en este caso quien queda como un impostor, o al menos como alguien cuya producción no tiene tanto mérito, es el autor antiguo que ha tenido que escribir su novelita como un arriero medieval. 

Triste esfuerzo, porque podía haber dedicado el tiempo a tomar café en la terraza del Flore o a meter la cabeza, si la tuviera, en el horno. 

Antes había un niño que dibujaba muy mal, ahora una IA que escribe muy bien. Curiosamente coinciden ahí, en ese espejo cruzado al que les han convocado los opinadores. 

El entusiasmo por la capacidad creciente de las inteligencias artificiales de escribir textos indistinguibles de los de una pluma humana se puede entender al menos por dos razones: por el afán de lucro rápido (gallina de los huevos de oro) o por la muy natural fascinación con que lo artificial remeda nuestras costumbres y funcionamientos (aquí intuyo concomitancias con la atracción que nos provocan las casas de muñecas o todo lo que juega con las escalas; en realidad con los muñecos en general). 

Ahora parece una revolución que los chatbots escriban sinopsis o resúmenes, pero no entiendo la asombrosa dificultad de hacerlo uno mismo. 

¿Estaré ahora hablando igual que alguien del pasado que dijera que para qué queríamos una lavadora si podíamos ir a lavar las sábanas al río? 

Lo cierto es que mientras escribo mis sábanas dan vueltas en el tambor eléctrico, que me permite entregarme a estas interesantes divagaciones. ¡Oh, tambor y sábanas, imágenes de mi cerebro y mis ideas!, o viceversa. 

Bueno, por volver al tema o a donde sea, no sé por qué no podríamos nosotros ocuparnos de nuestras frases, que tienen su raíz en las cosas que nos pasan y que a su vez provocan que se encarnen experiencias nuevas. 

Lo más interesante de los robots sería que nos contasen sus puntos de vista. Lo que sí creo es que si dejamos que sean ellos quienes lo escriban todo, de aquí a diez años no quedará nadie que quiera leer nada. 

No porque no sea interesante, que ya se verá, sino porque habremos sido expulsados de la partida de futbolín. Oh, humanos, antiguos patinadores sobre el hielo impracticable de las palabras.

Imagen de portada: Gentileza de Letras Libres.

FUENTE RESPONSABLE: Letras Libres. Por Bárbara Mingo Costales. 14 de febrero 2023.

Sociedad y Cultura/IA/Inteligencia Artificial/Robots/Sarcasmos de una nueva realidad.