Internacionales
Sam Altman (ChatGPT), en el Capitolio: “Si la inteligencia artificial sale mal, puede salir muy mal”
Published
3 semanas agoon
By
LA REDACCIÓNEl cofundador de OpenAI comparece ante el Senado estadounidense para defender los beneficios y alertar de los riesgos de la tecnología revolucionaria
Washington.-Un ambiente de cordialidad reinó este martes por la mañana durante la primera audiencia sobre inteligencia artificial celebrada en el Capitolio. El tono fue muy distinto del de los agresivos interrogatorios celebrados en el pasado entre senadores estadounidenses y fundadores de redes sociales como Facebook o, más recientemente, el presidente ejecutivo de TikTok. Nadie parecía interesado en empezar con mal pie una relación que se promete larga y complicada. Ayudó que el invitado estrella, Sam Altman, cofundador de OpenAI, creadora de ChatGPT, la herramienta más poderosa creada por la humanidad en ese campo, se sentara ante los miembros de ambos partidos de la Comisión Judicial, de acuerdo por una vez, y les pidiera una actuación urgente: “Es esencial regular la inteligencia artificial, y que esas normas garanticen que el público acceda a los muchos beneficios de esta tecnología”, dijo en su parlamento inicial. ”Mi peor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”.
Altman añadió que comprendía que la “gente esté ansiosa por cómo [la IA] puede cambiar la forma en que vivimos”. “Pero creemos que podemos y debemos trabajar juntos para identificar y gestionar las posibles desventajas para que todos podamos disfrutar de las tremendas ventajas”, remató.
Altman también discutió con aparente empatía los mayores desafíos que su revolucionaria herramienta traerá para el futuro del trabajo, en los modos en los que su uso irresponsable puede afectar en la difusión de desinformación, en los resultados de las próximas elecciones presidenciales en Estados Unidos o en el trabajo de las industrias creativas.
“Esta audiencia está siendo histórica”, dijo tras escuchar las primeras conciliadoras respuestas de Altman el veterano senador Dick Durbin (Illinois), presidente de la comisión. “Perdí la cuenta de la cantidad de personas y entidades del sector privado que se presentaron aquí para tratar de hacernos creer que la economía prosperaría si los legisladores nos quitábamos de en medio”.
El ejemplo de las armas nucleares
Altman fue un poco más allá a continuación: “Estados Unidos debe ser el primer país en hacer algo. Pero creo que, por muy quimérico que suene, también opino que esto debería ser también un esfuerzo de alcance global”. En ese sentido, abogó por crear una organización internacional que establezca estándares para la IA, al estilo de cómo se ha hecho en el pasado con “las armas nucleares”.
A su lado, se sentaron la ejecutiva de IBM, Christina Montgomery, que pidió a los legisladores que fueran específicos en su regulación (”no es lo mismo que la tecnología se emplee en ayudar a elegir este o aquel restaurante o que se haga para tomar decisiones sobre empleo o vivienda”), y Gary Marcus, profesor emérito de la Universidad de Nueva York, que aportó los puntos de vista más críticos de la mañana y describió “una tormenta perfecta de irresponsabilidad corporativa, penetración extraordinaria y falta de regulación y de confianza”. “La humanidad está yendo por detrás esta vez”, sentenció.
Los tres coincidieron con los legisladores en la importancia de no cometer “los mismos errores” que con las redes sociales. “Actuamos muy lentamente. Muchas decisiones desafortunadas tuvieron consecuencias duraderas”, dijo Marcus. “Las decisiones que tomemos ahora tendrán efectos durante décadas, tal vez incluso siglos”.
A la petición del senador de Luisiana John Neely Kennedy de que aportaran medidas para diseñar esa regulación en la que todos parecían de acuerdo, Marcus sugirió crear una agencia, del tipo de la FDA (que controla el mercado de los medicamentos en Estados Unidos) para establecer un examen previo a las nuevas herramientas y otra que haga un seguimiento posterior una vez estén en el mercado, así como la creación de maneras de financiación para intervenir en la investigación para el futuro.
La primera propuesta de Altman coincidió en la necesidad de crear una agencia que dé y quite licencias a las empresas de IA, y que garantice “el cumplimiento de las normas”. La segunda pasaría por crear “un conjunto de estándares de seguridad”. ¿La tercera? “Crear protocolos para descubrir cuándo un modelo es capaz de replicarse a sí mismo”. Ese temor, que parece tomado de una novela barata de ciencia ficción, es, según los expertos, uno de los mayores desafíos de la IA para el futuro de la humanidad.
Algunos senadores subrayaron el hecho de que Chat GPT haya conseguido 100 millones de usuarios en dos meses. Algunos de esos usuarios se sentaron este martes del lado de las preguntas en el Capitolio. El demócrata Richard Blumenthal (Connecticut) reprodujo un audio que imitaba su voz, creado por la herramienta tecnológica de moda. Marsha Blackburn (Tennessee) explicó que durante el fin de semana había pedido a la máquina que inventara una canción del artista de country Garth Brooks, mientras que Amy Klobuchar (Minnesota) descubrió con gran “agrado” que a la pregunta de cuáles son los tres mejores músicos de la historia, obtuvo de ChatGPT una respuesta que incluía a dos nacidos en su Estado: Prince y Bob Dylan.
elpais.com
Internacionales
Mueren tres soldados israelíes y un guardia egipcio
Published
3 días agoon
junio 4, 2023Agencia AP
El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.
Jerusalén, Israel.-Un tiroteo que involucró a un guardia fronterizo egipcio en la zona limítrofe con Israel provocó el sábado la muerte de tres soldados israelíes y el oficial egipcio, informaron las autoridades, un caso raro de violencia letal a lo largo de la frontera.
El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.
Dijo que varias horas después, dos soldados en un puesto de guardia fueron asesinados a disparos. Sus cuerpos fueron encontrados después del tiroteo, pues no respondían a las comunicaciones por radio. El ejército israelí dijo que uno de los soldados muertos era una mujer.
Hecht precisó que los asesinatos parecían estar relacionados con el intento frustrado de contrabando de drogas. El ejército dijo que el guardia fronterizo egipcio murió en un segundo intercambio de disparos en el que murió un tercer soldado israelí.
CRUCE DE SEGURIDAD
El ejército de Egipto dijo en un comunicado que el guardia fronterizo egipcio cruzó la barrera de seguridad fronteriza e intercambió disparos con las fuerzas israelíes mientras perseguía a los narcotraficantes. Agregó que el guardia fronterizo egipcio fue asesinado junto con los tres soldados israelíes.
Hecht dijo que se estaba llevando a cabo una investigación en plena cooperación con el ejército egipcio. Dijo que las tropas estaban buscando a otros posibles atacantes.
Los delincuentes a veces pasan drogas de contrabando a través de la frontera, mientras que los grupos militantes islámicos también están activos en el intranquilo norte de Egipto, en el Sinaí. Israel y Egipto firmaron un acuerdo de paz en 1979 y mantienen estrechos lazos de seguridad. Son raros los hechos de violencia a lo largo de su frontera bilateral.
AGENCIA AP
Nairobi, Kenia.-Pretty Peter, una mujer transgénero ugandesa, está relativamente a salvo en la vecina Kenia. Sus amistades en Uganda, sin embargo, se siguen sintiendo amenazadas por la ley antigay recientemente sancionada, que ordena la pena de muerte en casos definidos como “homosexualidad agravada”.
Aterrados, los LGBTQ buscan la manera de huir, como hizo Pretty Peter. Algunos permanecen en sus casas desde el lunes, cuando se firmó la ley, por temor a que los ataquen, dijo.
VALIDACIÓN GUBERNAMENTAL
“Los homófobos han recibido una validación del gobierno para atacar a la gente”, dijo la mujer de 26 años, en una habitación decorada con retratos sombríos de un proyecto global llamado “Donde el Amor es Ilegal”.
“Mis amigos han visto un cambio de actitud en sus vecinos y buscan documentos y dinero para viajar y obtener refugio en Kenia”, dijo.
Es difícil: un mensaje a Pretty Peter dice “Las chicas y yo queremos venir, pero es demasiado difícil”.
La homosexualidad ha sido ilegal durante mucho tiempo en Uganda bajo una ley de la era colonial que pena la actividad sexual “contraria al orden de la naturaleza”. La violación de la ley se pena con cadena perpetua. Pretty Peter, que pidió ser identificada por su seudónimo por razones de seguridad, huyó del país en 2019 después que la policía arrestó a 150 personas en un club gay y las presentó ante la prensa antes de acusarlas de alteración del orden público.
CONDENA GENERALIZADA
La nueva ley sancionada por el presidente Yoweri Museveni fue condenada por activistas y otros en todo el mundo. No penaliza a quienes se identifican como LGBTQ, tras la indignación provocada por una versión anterior. Museveni había devuelto el proyecto a la asamblea nacional para pedir que se distinguiera entre identificarse como LGBTQ y practicar actos homosexuales.
La nueva ley conserva la pena de muerte por “homosexualidad agravada”, definida como las relaciones sexuales infectadas con VIH, así como con menores y otras personas vulnerables. La condena por “intento de homosexualidad agravada” puede llegar a 14 años. Y hay una pena de 20 años por “promover la homosexualidad”, una categoría amplia que abarca a periodistas y activistas.
Internacionales
Cómo evitar las «alucinaciones» o fallos de la IA
Published
3 días agoon
junio 4, 2023AGENCIA EFE
La incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.
Nueva York, EE.UU.-Una de las mayores taras de los chatbots con inteligencia artificial (IA) generativa es que a veces dan respuestas bien estructuradas pero completamente incorrectas -que pueden ir desde un dato erróneo a una perturbadora conversación-, lo que se conoce en la industria de la tecnología como «alucinaciones», y los expertos se enfrentan ahora al reto de erradicarlas.
Desde que se popularizó esta tecnología el otoño pasado, millones de personas han comenzado a usar a diario estos chats para tareas como escribir un correo electrónico, organizar sus vacaciones, buscar información o aprender sobre temas específicos.
No obstante, la incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.
DE RESPUESTAS PERTURBADORAS A OTRAS INVENTADAS
Son varios los ejemplos de este tipo de alucinaciones, y entre las más conocidas están las conversaciones que varias personas tuvieron en febrero con «Sydney», el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft.
En uno de los casos, «Sydney» confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando.
Otra de las «alucinaciones» más sonadas fue la del chatbot de Google, Bard, que produjo un vídeo promocional con un error sobre el telescopio espacial James Webb.
Ninguna empresa parece librarse de los patinazos: el chatbot de OpenAI, ChatGPT, indujo al error a un abogado, al crear para él una serie de supuestos precedentes legales totalmente inventados que el abogado usó posteriormente en un juicio, pero fue detectado y ahora se enfrenta a posibles sanciones.
SIN «ALUCINACIONES» TAMPOCO HAY CREATIVIDAD
La IA generativa funciona gracias a un complejo algoritmo que analiza la forma en que los humanos juntan palabras tomando como base la enorme cantidad de información que hay en Internet, pero no está programada para decidir si sus respuestas son verdaderas.
Estas «alucinaciones» no son tan fáciles de erradicar, ya que son parte del mismo sistema que permite a los bots ser creativos y generen conversaciones o historias no repetidas. Es decir, si se quita o frena esta característica de la IA no sería tan fácil que el chat genere poemas en cualquier estilo, cree chistes o sugiera ideas.
“Estas alucinaciones son particularmente problemáticas cuando se requiere un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, detalla en un estudio OpenAI -empresa detrás de la tecnología de los chats de Bing y ChatGPT.
Microsoft y Google, los dos grandes gigantes tecnológicos que compiten en la carrera por ser la compañía referente de los chatbots con IA, han ensayado medidas para intentar evitar estos errores; Microsoft ha probado a limitar el número de preguntas que Bing puede contestar, tras detectar que las «alucinaciones» más distópicas solían aparecer en conversaciones más largas.
Por su parte, cuando Google genera resultados de búsqueda utilizando su tecnología de chatbot, a la vez ejecuta una búsqueda en su buscador tradicional; compara las respuestas obtenidas por las dos tecnologías y si la respuesta no es la misma, el resultado de la IA ni siquiera se muestra.
Esto hace que su chatbot sea menos creativo, por lo que no es tan bueno como sus competidores para escribir poemas o tener conversaciones, pero está menos expuesto al error.
“Nadie en el campo (de la IA generativa) ha resuelto todavía los problemas de las ´alucinaciones´. Todos los modelos tienen este problema”, dijo el director ejecutivo de Google, Sundar Pichai, en una entrevista con CBS en abril.
DOS CHATBOTS MEJOR QUE UNO
Una de las soluciones que propone el estudio titulado: «Mejorando la facticidad y el razonamiento en los modelos de lenguaje a través del debate multiagente», del Instituto de Tecnología de Massachusetts (MIT), es hacer que, antes de responder a un humano, varios chatbots «debatan» entre sí sobre cuál es la respuesta correcta.
Si los chatbots producen múltiples respuestas a la misma pregunta deben primero llegar a un acuerdo sobre cuál es la correcta.
Por su parte, un grupo de investigadores de Cambridge señalan en su artículo «SelfCheckGPT: Detección de alucinaciones de caja negra sin recursos para modelos generativos de lenguaje (LLM)» que una técnica que ayuda a que la IA se equivoque menos es hacerle al mismo chatbot la misma pregunta varias veces para ver si la respuesta es siempre la misma -en ese caso sería correcta- o no.
Otros expertos como Geoffrey Hinton, quien fue bautizado como el «padrino» de la IA y tuvo parte de su carrera en Google, creen que las «alucinaciones» se controlarán para que sean menos frecuentes, pero que no hay manera de deshacerse por completo de ellas.