Otros continentes
Científicos rusos afirman que en febrero se conocerá si Arafat fue envenenado
Published
10 años agoon
By
LA REDACCIÓNSu viuda, Suha Arafat, sostiene que el líder palestino fue envenenado por los servicios secretos israelíes.

La investigación se realiza después de que se encontraran restos de polonio en la ropa y utensilios del dirigente de Al-Fatah (Foto:Archivo).
La Agencia Federal Médico Biológica (AFMB) de Rusia anunció este miércoles que necesitarán dos o tres meses para saber si el histórico líder palestino Yaser Arafat fue envenenado, como sostiene su viuda, Suha Arafat.
El jefe de AFMB, Vladímir Riba, sostuvo que recién a finales de febrero se podrá “hablar de los primeros resultados, así como anunciarlos”.
«Tenemos que establecer un modelo de la llamada primera dosis. Éste es un modelo matemático para calcular si la cantidad de sustancia tóxica que fue encontrada en la ropa pudo suponer una dosis letal», remarcó.
De esta manera se podrá develar si Arafat fue envenado con polonio-210 luego de que se encontraran restos de este elemento químico en su ropa y sus utensilios más privados.
En tanto que la viuda de Arafat sostuvo que confía plenamente en “los especialistas rusos ya que son de un país que siempre apoyo a su esposo y la Revolución palestina”.
Por otro lado, en el análisis de los restos también participan especialistas suizos y franceses, quienes interrogarán a las personas que estuvieron cerca del líder palestino entre el 1 de enero y el 28 de octubre de 2004, periodo en el que podría haber sido envenenado.
Este estudio se da luego de que el cuerpo del líder palestino fuera exhumado a fines de noviembe tras la denuncia de su viuda frente a un tribunal de la ciudad francesa de Nanterre, donde habló de la posibilidad de que su esposo haya sido víctima de un complot.
La denuncia, realizada después de encontrar restos de polonio en la ropa de Arafat, señala que los servicios secretos israelíes podrían estar detrás de la muerte del líder y que el atentado podría haber sido realizado con la ayuda de uno de sus colaboradores más cercanos.
El movimiento palestino Al-Fatah, al que pertenecía el dirigente, acusa al ex hombre fuerte de Gaza, Mohamed Dahlan de haberlo envenadado,”como ya lo había intentado con otros referentes de la organización”.
Al Fatah sostiene también que Dahlan envío medicinas para intoxicar al líder palestino. “Lo que causa mayor sospecha es que le pidió al alto militar que las destruyera después de la muerte de Arafat”, sostiene el informe publicado en 2005.
Incluso, el movimiento palestino remarca que existe evidencia que Arafat fue envenenado antes del 2004, año en el que fue internado por una enfermedad que los médicos no pudieron develar.
Así se busca develar si el fundador de la Organización para la Liberación de Palestina murió de la misma forma que lo hizo el antiguo espía ruso Alezander Litvinenko.
Yaser Arafat es uno de los dirigentes más emblemáticos de la lucha por el establecimiento de un Estado palestino e incluso llegó a firmar un acuerdo de paz con el primer ministro de Israel,Yitzhak Rabin, quien luego fue asesinado por un fundamentalista de su país.
Su muerte ocurrió en 2004 en un hospital de Francia luego de haber sido trasladado desde Ramala (donde llevaba tres años cercado por Israel) producto de una enfermedad generada por causas que aún se desconocen.
Internacionales
Mueren tres soldados israelíes y un guardia egipcio
Published
3 días agoon
junio 4, 2023Agencia AP
El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.
Jerusalén, Israel.-Un tiroteo que involucró a un guardia fronterizo egipcio en la zona limítrofe con Israel provocó el sábado la muerte de tres soldados israelíes y el oficial egipcio, informaron las autoridades, un caso raro de violencia letal a lo largo de la frontera.
El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.
Dijo que varias horas después, dos soldados en un puesto de guardia fueron asesinados a disparos. Sus cuerpos fueron encontrados después del tiroteo, pues no respondían a las comunicaciones por radio. El ejército israelí dijo que uno de los soldados muertos era una mujer.
Hecht precisó que los asesinatos parecían estar relacionados con el intento frustrado de contrabando de drogas. El ejército dijo que el guardia fronterizo egipcio murió en un segundo intercambio de disparos en el que murió un tercer soldado israelí.
CRUCE DE SEGURIDAD
El ejército de Egipto dijo en un comunicado que el guardia fronterizo egipcio cruzó la barrera de seguridad fronteriza e intercambió disparos con las fuerzas israelíes mientras perseguía a los narcotraficantes. Agregó que el guardia fronterizo egipcio fue asesinado junto con los tres soldados israelíes.
Hecht dijo que se estaba llevando a cabo una investigación en plena cooperación con el ejército egipcio. Dijo que las tropas estaban buscando a otros posibles atacantes.
Los delincuentes a veces pasan drogas de contrabando a través de la frontera, mientras que los grupos militantes islámicos también están activos en el intranquilo norte de Egipto, en el Sinaí. Israel y Egipto firmaron un acuerdo de paz en 1979 y mantienen estrechos lazos de seguridad. Son raros los hechos de violencia a lo largo de su frontera bilateral.
AGENCIA AP
Nairobi, Kenia.-Pretty Peter, una mujer transgénero ugandesa, está relativamente a salvo en la vecina Kenia. Sus amistades en Uganda, sin embargo, se siguen sintiendo amenazadas por la ley antigay recientemente sancionada, que ordena la pena de muerte en casos definidos como “homosexualidad agravada”.
Aterrados, los LGBTQ buscan la manera de huir, como hizo Pretty Peter. Algunos permanecen en sus casas desde el lunes, cuando se firmó la ley, por temor a que los ataquen, dijo.
VALIDACIÓN GUBERNAMENTAL
“Los homófobos han recibido una validación del gobierno para atacar a la gente”, dijo la mujer de 26 años, en una habitación decorada con retratos sombríos de un proyecto global llamado “Donde el Amor es Ilegal”.
“Mis amigos han visto un cambio de actitud en sus vecinos y buscan documentos y dinero para viajar y obtener refugio en Kenia”, dijo.
Es difícil: un mensaje a Pretty Peter dice “Las chicas y yo queremos venir, pero es demasiado difícil”.
La homosexualidad ha sido ilegal durante mucho tiempo en Uganda bajo una ley de la era colonial que pena la actividad sexual “contraria al orden de la naturaleza”. La violación de la ley se pena con cadena perpetua. Pretty Peter, que pidió ser identificada por su seudónimo por razones de seguridad, huyó del país en 2019 después que la policía arrestó a 150 personas en un club gay y las presentó ante la prensa antes de acusarlas de alteración del orden público.
CONDENA GENERALIZADA
La nueva ley sancionada por el presidente Yoweri Museveni fue condenada por activistas y otros en todo el mundo. No penaliza a quienes se identifican como LGBTQ, tras la indignación provocada por una versión anterior. Museveni había devuelto el proyecto a la asamblea nacional para pedir que se distinguiera entre identificarse como LGBTQ y practicar actos homosexuales.
La nueva ley conserva la pena de muerte por “homosexualidad agravada”, definida como las relaciones sexuales infectadas con VIH, así como con menores y otras personas vulnerables. La condena por “intento de homosexualidad agravada” puede llegar a 14 años. Y hay una pena de 20 años por “promover la homosexualidad”, una categoría amplia que abarca a periodistas y activistas.
Internacionales
Cómo evitar las «alucinaciones» o fallos de la IA
Published
3 días agoon
junio 4, 2023AGENCIA EFE
La incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.
Nueva York, EE.UU.-Una de las mayores taras de los chatbots con inteligencia artificial (IA) generativa es que a veces dan respuestas bien estructuradas pero completamente incorrectas -que pueden ir desde un dato erróneo a una perturbadora conversación-, lo que se conoce en la industria de la tecnología como «alucinaciones», y los expertos se enfrentan ahora al reto de erradicarlas.
Desde que se popularizó esta tecnología el otoño pasado, millones de personas han comenzado a usar a diario estos chats para tareas como escribir un correo electrónico, organizar sus vacaciones, buscar información o aprender sobre temas específicos.
No obstante, la incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.
DE RESPUESTAS PERTURBADORAS A OTRAS INVENTADAS
Son varios los ejemplos de este tipo de alucinaciones, y entre las más conocidas están las conversaciones que varias personas tuvieron en febrero con «Sydney», el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft.
En uno de los casos, «Sydney» confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando.
Otra de las «alucinaciones» más sonadas fue la del chatbot de Google, Bard, que produjo un vídeo promocional con un error sobre el telescopio espacial James Webb.
Ninguna empresa parece librarse de los patinazos: el chatbot de OpenAI, ChatGPT, indujo al error a un abogado, al crear para él una serie de supuestos precedentes legales totalmente inventados que el abogado usó posteriormente en un juicio, pero fue detectado y ahora se enfrenta a posibles sanciones.
SIN «ALUCINACIONES» TAMPOCO HAY CREATIVIDAD
La IA generativa funciona gracias a un complejo algoritmo que analiza la forma en que los humanos juntan palabras tomando como base la enorme cantidad de información que hay en Internet, pero no está programada para decidir si sus respuestas son verdaderas.
Estas «alucinaciones» no son tan fáciles de erradicar, ya que son parte del mismo sistema que permite a los bots ser creativos y generen conversaciones o historias no repetidas. Es decir, si se quita o frena esta característica de la IA no sería tan fácil que el chat genere poemas en cualquier estilo, cree chistes o sugiera ideas.
“Estas alucinaciones son particularmente problemáticas cuando se requiere un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, detalla en un estudio OpenAI -empresa detrás de la tecnología de los chats de Bing y ChatGPT.
Microsoft y Google, los dos grandes gigantes tecnológicos que compiten en la carrera por ser la compañía referente de los chatbots con IA, han ensayado medidas para intentar evitar estos errores; Microsoft ha probado a limitar el número de preguntas que Bing puede contestar, tras detectar que las «alucinaciones» más distópicas solían aparecer en conversaciones más largas.
Por su parte, cuando Google genera resultados de búsqueda utilizando su tecnología de chatbot, a la vez ejecuta una búsqueda en su buscador tradicional; compara las respuestas obtenidas por las dos tecnologías y si la respuesta no es la misma, el resultado de la IA ni siquiera se muestra.
Esto hace que su chatbot sea menos creativo, por lo que no es tan bueno como sus competidores para escribir poemas o tener conversaciones, pero está menos expuesto al error.
“Nadie en el campo (de la IA generativa) ha resuelto todavía los problemas de las ´alucinaciones´. Todos los modelos tienen este problema”, dijo el director ejecutivo de Google, Sundar Pichai, en una entrevista con CBS en abril.
DOS CHATBOTS MEJOR QUE UNO
Una de las soluciones que propone el estudio titulado: «Mejorando la facticidad y el razonamiento en los modelos de lenguaje a través del debate multiagente», del Instituto de Tecnología de Massachusetts (MIT), es hacer que, antes de responder a un humano, varios chatbots «debatan» entre sí sobre cuál es la respuesta correcta.
Si los chatbots producen múltiples respuestas a la misma pregunta deben primero llegar a un acuerdo sobre cuál es la correcta.
Por su parte, un grupo de investigadores de Cambridge señalan en su artículo «SelfCheckGPT: Detección de alucinaciones de caja negra sin recursos para modelos generativos de lenguaje (LLM)» que una técnica que ayuda a que la IA se equivoque menos es hacerle al mismo chatbot la misma pregunta varias veces para ver si la respuesta es siempre la misma -en ese caso sería correcta- o no.
Otros expertos como Geoffrey Hinton, quien fue bautizado como el «padrino» de la IA y tuvo parte de su carrera en Google, creen que las «alucinaciones» se controlarán para que sean menos frecuentes, pero que no hay manera de deshacerse por completo de ellas.