Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico) https://vandal.elespanol.com/random/ada ... 35080.html
Está claro, cuando falla la inteligencia natural solo queda esto:
...
Cómo aprende Grok. Girón, Liz-López y D’Antonio explican que este tipo de inteligencias artificiales tienen “dos fases bien marcadas” en su entrenamiento.
En primer lugar, se da lo que conocemos como preentrenamiento, que sería algo como “leerse y memorizarse todo Internet”, señalan.
La segunda fase marca cómo la IA va a responder a la petición del usuario, algo que depende de los datos que reciba. “Aprenderá a contestar como le hayan dicho que tiene que hacerlo, ni más ni menos”. En este sentido, los tres expertos apuntan que “hay muy poca información acerca del funcionamiento de Grok, pero lo que sí podemos afirmar es que, si es capaz de responder con discurso de odio, es porque en su entrenamiento ha visto discurso de odio”.
---
Estamos en una clase de literatura en un instituto. La profesora está enseñando qué es un haiku, un poema de tres versos de origen japonés que transmite una imagen o emoción. Para saber si un alumno en concreto ha entendido el concepto, normalmente le pedirá que lo defina y que redacte uno. Puede que la definición sea mejorable, pero si escribe un buen haiku, la profesora asumirá que va por buen camino.
Esto funciona porque, para los humanos, aplicar un concepto correctamente es la mejor prueba de que lo hemos entendido. Es algo básico en nuestro aprendizaje. Sin embargo, desde la irrupción de las inteligencias artificiales generativas nos hemos encontrado con una realidad que choca frontalmente con nuestro método. Estos algoritmos pueden definir algo perfectamente (de hecho, lo hacen en el 94% de las ocasiones) pero fallar más de la mitad de las veces si se les pide que lo pongan en práctica.
Son los resultados de un estudio preliminar elaborado por Investigadores del Instituto Tecnológico de Massachusetts (MIT) y de las universidades de Harvard y Chicago. Este ha conseguido recoger evidencias sólidas de lo que muchos llevaban años avisando: las inteligencias artificiales generativas de texto no entienden lo que escriben. Pero, además, han profundizado en el fenómeno y las razones por las que se produce. También han propuesto un nombre para él: la “comprensión potemkin”.
El término de “comprensión potemkin” evoca el mito de las aldeas potemkin. Según la leyenda (discutida hoy por los historiadores), estas fueron construidas por Grigori Potemkin, valido y amante de Catalina la Grande de Rusia. Durante un viaje de la zarina por Crimea en 1787 junto a embajadores extranjeros, Potemkin habría mandado construir pueblos falsos para impresionarla y ocultar la pobreza real de la región. Con casas compuestas solo de fachadas, campesinos traídos para la ocasión y animales alquilados, su objetivo era dar una falsa impresión de prosperidad.
Los investigadores utilizan esta analogía en su estudio como metáfora de la “fachada” de raciocinio que los modelos de IA construyen ante nosotros. Una “ilusión de comprensión” que les permite explicar casi cualquier término por el que se les pregunte sin ser capaces de aplicarlo, dando “respuestas irreconciliables con la forma en que cualquier humano interpretaría un concepto”.
...
Nada nuevo. Es como un alumno muy tonto, pero con una gran memoria.
Es curioso, en términos generales las noticias referidas a IA suelen ir en la dirección que tu dices tonto , que acumula datos y los presenta decentemente, pero no faltan las de ¡Cuidado, es una amenaza! ¡Esto no ha hecho más que empezar!
La amenaza más habitual es la relativa a los empleos que van a ser innecesarios, al reemplazo laboral , pero no faltan las apocalípticas :más propias de guiones de sci-fi ( sin descartar que en un futuro esos guiones puedan haber abandonado el terreno de la ficción)
Esta noticia es un tanto híbrida : amenaza de cambios enfocándose sobre todo en lo laboral , pero con titulares catastrofistas ( sin embargo cuando se lee el texto , deja un lugar también para un futuro esperanzador y quizás ingenuamente idílico) https://vandal.elespanol.com/random/ada ... 35080.html
Está claro, cuando falla la inteligencia natural solo queda esto:
...
Cómo aprende Grok. Girón, Liz-López y D’Antonio explican que este tipo de inteligencias artificiales tienen “dos fases bien marcadas” en su entrenamiento.
En primer lugar, se da lo que conocemos como preentrenamiento, que sería algo como “leerse y memorizarse todo Internet”, señalan.
La segunda fase marca cómo la IA va a responder a la petición del usuario, algo que depende de los datos que reciba. “Aprenderá a contestar como le hayan dicho que tiene que hacerlo, ni más ni menos”. En este sentido, los tres expertos apuntan que “hay muy poca información acerca del funcionamiento de Grok, pero lo que sí podemos afirmar es que, si es capaz de responder con discurso de odio, es porque en su entrenamiento ha visto discurso de odio”.
---
Exactamente lo que ha ocurrido es que Grok estaba siendo demasiado liberal (en términos anglosajones) y Musk intentó darle un giro más conservador, todo terminó en que se volvió nazi.
Pero Grok era liberal, y bastante de izquierda.
Pero por aquí la peña decía que Grok era un arma del imperialismo que ensuciaba mentes con sus opiniones burguesas.