Conecta con nosotros

Internacionales

EEUU: Otro tiroteo deja 2 muertos y 5 heridos en estado de Arizona

Published

on

  • Por EUROPA PRESS

ARIZONA, EEUU.- Las autoridades estadounidenses están investigando un tiroteo que ha tenido lugar este fin de semana, y que se ha saldado con al menos dos muertos y cinco heridos en Yuma, cerca de la frontera con México.

El Departamento de Policía de Yuma ha señalado que las víctimas eran todos varones y tenían edades comprendidas entre 15 y 20 años. Dos de las víctimas, de 19 y 20 años, fueron trasladados a un hospital, donde se les declaró muertos.

Entre los heridos, un chico de 16 años se encuentra en estado grave, mientras que el resto de heridos –también de bala– tienen un pronóstico favorable.

El incidente ocurrió el sábado por la noche, a las 23.00 hora local, durante una reunión no especificada en la ciudad de Yuma. La Policía, que está investigando el incidente, no tiene por el momento a ningún sospechoso bajo custodia.

Los investigadores están actualmente entrevistando a varios testigos, según ha informado la cadena estadounidense KYMA, afiliada a CNN.

of-am

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada.

Internacionales

Mueren tres soldados israelíes y un guardia egipcio

Published

on

Agencia AP

El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.

Jerusalén, Israel.-Un tiroteo que involucró a un guardia fronterizo egipcio en la zona limítrofe con Israel provocó el sábado la muerte de tres soldados israelíes y el oficial egipcio, informaron las autoridades, un caso raro de violencia letal a lo largo de la frontera.

El vocero del ejército israelí, teniente coronel Richard Hecht, dijo que el enfrentamiento comenzó durante la madrugada, cuando los soldados israelíes frustraron un intento de contrabando de drogas a través de la frontera.

Dijo que varias horas después, dos soldados en un puesto de guardia fueron asesinados a disparos. Sus cuerpos fueron encontrados después del tiroteo, pues no respondían a las comunicaciones por radio. El ejército israelí dijo que uno de los soldados muertos era una mujer.

Hecht precisó que los asesinatos parecían estar relacionados con el intento frustrado de contrabando de drogas. El ejército dijo que el guardia fronterizo egipcio murió en un segundo intercambio de disparos en el que murió un tercer soldado israelí.

CRUCE DE SEGURIDAD

El ejército de Egipto dijo en un comunicado que el guardia fronterizo egipcio cruzó la barrera de seguridad fronteriza e intercambió disparos con las fuerzas israelíes mientras perseguía a los narcotraficantes. Agregó que el guardia fronterizo egipcio fue asesinado junto con los tres soldados israelíes.

Hecht dijo que se estaba llevando a cabo una investigación en plena cooperación con el ejército egipcio. Dijo que las tropas estaban buscando a otros posibles atacantes.

Los delincuentes a veces pasan drogas de contrabando a través de la frontera, mientras que los grupos militantes islámicos también están activos en el intranquilo norte de Egipto, en el Sinaí. Israel y Egipto firmaron un acuerdo de paz en 1979 y mantienen estrechos lazos de seguridad. Son raros los hechos de violencia a lo largo de su frontera bilateral.

Continue Reading

Internacionales

Los LGTBQ huyen de Uganda tras nueva ley

Published

on

AGENCIA AP

Nairobi, Kenia.-Pretty Peter, una mujer transgénero ugandesa, está relativamente a salvo en la vecina Kenia. Sus amistades en Uganda, sin embargo, se siguen sintiendo amenazadas por la ley antigay recientemente sancionada, que ordena la pena de muerte en casos definidos como “homosexualidad agravada”.

Aterrados, los LGBTQ buscan la manera de huir, como hizo Pretty Peter. Algunos permanecen en sus casas desde el lunes, cuando se firmó la ley, por temor a que los ataquen, dijo.

VALIDACIÓN GUBERNAMENTAL

“Los homófobos han recibido una validación del gobierno para atacar a la gente”, dijo la mujer de 26 años, en una habitación decorada con retratos sombríos de un proyecto global llamado “Donde el Amor es Ilegal”.

“Mis amigos han visto un cambio de actitud en sus vecinos y buscan documentos y dinero para viajar y obtener refugio en Kenia”, dijo.

Es difícil: un mensaje a Pretty Peter dice “Las chicas y yo queremos venir, pero es demasiado difícil”.

La homosexualidad ha sido ilegal durante mucho tiempo en Uganda bajo una ley de la era colonial que pena la actividad sexual “contraria al orden de la naturaleza”. La violación de la ley se pena con cadena perpetua. Pretty Peter, que pidió ser identificada por su seudónimo por razones de seguridad, huyó del país en 2019 después que la policía arrestó a 150 personas en un club gay y las presentó ante la prensa antes de acusarlas de alteración del orden público.

CONDENA GENERALIZADA

La nueva ley sancionada por el presidente Yoweri Museveni fue condenada por activistas y otros en todo el mundo. No penaliza a quienes se identifican como LGBTQ, tras la indignación provocada por una versión anterior. Museveni había devuelto el proyecto a la asamblea nacional para pedir que se distinguiera entre identificarse como LGBTQ y practicar actos homosexuales.

La nueva ley conserva la pena de muerte por “homosexualidad agravada”, definida como las relaciones sexuales infectadas con VIH, así como con menores y otras personas vulnerables. La condena por “intento de homosexualidad agravada” puede llegar a 14 años. Y hay una pena de 20 años por “promover la homosexualidad”, una categoría amplia que abarca a periodistas y activistas.

Continue Reading

Internacionales

Cómo evitar las «alucinaciones» o fallos de la IA

Published

on

AGENCIA EFE

La incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.

Nueva York, EE.UU.-Una de las mayores taras de los chatbots con inteligencia artificial (IA) generativa es que a veces dan respuestas bien estructuradas pero completamente incorrectas -que pueden ir desde un dato erróneo a una perturbadora conversación-, lo que se conoce en la industria de la tecnología como «alucinaciones», y los expertos se enfrentan ahora al reto de erradicarlas.

Desde que se popularizó esta tecnología el otoño pasado, millones de personas han comenzado a usar a diario estos chats para tareas como escribir un correo electrónico, organizar sus vacaciones, buscar información o aprender sobre temas específicos.

No obstante, la incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.

DE RESPUESTAS PERTURBADORAS A OTRAS INVENTADAS

Son varios los ejemplos de este tipo de alucinaciones, y entre las más conocidas están las conversaciones que varias personas tuvieron en febrero con «Sydney», el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft.

En uno de los casos, «Sydney» confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando.

Otra de las «alucinaciones» más sonadas fue la del chatbot de Google, Bard, que produjo un vídeo promocional con un error sobre el telescopio espacial James Webb.

Ninguna empresa parece librarse de los patinazos: el chatbot de OpenAI, ChatGPT, indujo al error a un abogado, al crear para él una serie de supuestos precedentes legales totalmente inventados que el abogado usó posteriormente en un juicio, pero fue detectado y ahora se enfrenta a posibles sanciones.

SIN «ALUCINACIONES» TAMPOCO HAY CREATIVIDAD

La IA generativa funciona gracias a un complejo algoritmo que analiza la forma en que los humanos juntan palabras tomando como base la enorme cantidad de información que hay en Internet, pero no está programada para decidir si sus respuestas son verdaderas.

Estas «alucinaciones» no son tan fáciles de erradicar, ya que son parte del mismo sistema que permite a los bots ser creativos y generen conversaciones o historias no repetidas. Es decir, si se quita o frena esta característica de la IA no sería tan fácil que el chat genere poemas en cualquier estilo, cree chistes o sugiera ideas.

“Estas alucinaciones son particularmente problemáticas cuando se requiere un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, detalla en un estudio OpenAI -empresa detrás de la tecnología de los chats de Bing y ChatGPT.

Microsoft y Google, los dos grandes gigantes tecnológicos que compiten en la carrera por ser la compañía referente de los chatbots con IA, han ensayado medidas para intentar evitar estos errores; Microsoft ha probado a limitar el número de preguntas que Bing puede contestar, tras detectar que las «alucinaciones» más distópicas solían aparecer en conversaciones más largas.

Por su parte, cuando Google genera resultados de búsqueda utilizando su tecnología de chatbot, a la vez ejecuta una búsqueda en su buscador tradicional; compara las respuestas obtenidas por las dos tecnologías y si la respuesta no es la misma, el resultado de la IA ni siquiera se muestra.

Esto hace que su chatbot sea menos creativo, por lo que no es tan bueno como sus competidores para escribir poemas o tener conversaciones, pero está menos expuesto al error.

“Nadie en el campo (de la IA generativa) ha resuelto todavía los problemas de las ´alucinaciones´. Todos los modelos tienen este problema”, dijo el director ejecutivo de Google, Sundar Pichai, en una entrevista con CBS en abril.

DOS CHATBOTS MEJOR QUE UNO

Una de las soluciones que propone el estudio titulado: «Mejorando la facticidad y el razonamiento en los modelos de lenguaje a través del debate multiagente», del Instituto de Tecnología de Massachusetts (MIT), es hacer que, antes de responder a un humano, varios chatbots «debatan» entre sí sobre cuál es la respuesta correcta.

Si los chatbots producen múltiples respuestas a la misma pregunta deben primero llegar a un acuerdo sobre cuál es la correcta.

Por su parte, un grupo de investigadores de Cambridge señalan en su artículo «SelfCheckGPT: Detección de alucinaciones de caja negra sin recursos para modelos generativos de lenguaje (LLM)» que una técnica que ayuda a que la IA se equivoque menos es hacerle al mismo chatbot la misma pregunta varias veces para ver si la respuesta es siempre la misma -en ese caso sería correcta- o no.

Otros expertos como Geoffrey Hinton, quien fue bautizado como el «padrino» de la IA y tuvo parte de su carrera en Google, creen que las «alucinaciones» se controlarán para que sean menos frecuentes, pero que no hay manera de deshacerse por completo de ellas.

Continue Reading

Edificio La República: Restauración No. 138, cuarta planta, Santiago, República Dominicana. Teléfono: 809-247-3606. Fax: 809-581-0030.
www.larepublicaonline.com  / Email: periodico@larepublicaonline.com
Copyright © 2021 Blue National Group