Skip to main content

Tecnología

YouTube incorpora limitaciones para evitar recomendar contenidos problemáticos a adolescentes

La adolescencia supone todo un reto para las familias que intentan hablar sobre seguridad en Internet y redes sociales con sus hijos, un contexto que Google ha aprovechado para lanzar nuevas salvaguardas para las recomendaciones, que identifican categorías de contenidos en YouTube inicialmente inocuos, pero que pueden resultar dañinos con un visionado constante.

Las herramientas de control parental de Google se reúnen principalmente en el servicio Family Link, que centraliza los controles parentales que actúan sobre la cuenta instalada en el dispositivo que usa el menor; la Búsqueda segura, que filtra o desenfoca contenido explícito de los resultados de búsqueda en cuentas de menores; y las adaptaciones YouTube Kids y la Experiencia adaptada en YouTube.

Este martes, ha anunciado salvaguardas adicionales para las recomendaciones de contenido para adolescentes en YouTube. En colaboración con el Comité Asesor de Jóvenes y Familias de YouTube, se busca identificar las categorías de contenido que pueden ser inocuas en un solo vídeo, pero que podrían ser problemáticas si se ven de manera repetida.

En concreto, recoge categorías que tienen que ver con la apariencia física (por ejemplo, idealizaciones) o la agresión social en la forma de peleas sin contacto ni intimidación, como informan desde la compañía en una nota de prensa.

YouTube también ha incorporado en España los paneles de recursos de apoyo para crisis relacionadas con el suicidio y las autolesiones, que ofrecen recursos en los que solicitar ayuda en servicios de terceros.

HABLAR DE INTERNET SEGURO CON ADOLESCENTES

Estas novedades responden al hecho de que, si bien la seguridad en línea es una prioridad para las familias españolas, persisten preocupaciones significativas en torno a los riesgos que enfrentan los niños y niñas en el entorno digital, como se desprende de un reciente estudio realizado por el equipo de Trust and Safety Research de Google.

Según las conclusiones, las familias (98%) reconocen la importancia de iniciar conversaciones sobre seguridad digital a edades tempranas, entre los cinco y los ocho años, para abordar preocupaciones como el engaño pederasta 'online' o 'grooming' (45%), el ciberacoso (44%) y el consumo de contenidos sexualmente explícitos (42%).

En este sentido, el 87 por ciento de los padres ha hablado con sus hijos sobre seguridad en Internet en el último año. Las conversaciones informales (45%) y las normas establecidas por los padres (34%) se ven como las herramientas más eficaces para fomentar la seguridad en línea.

El estudio también destaca la edad media para tener el primer móvil es de 11 años, y antes de eso, los niños suelen compartir dispositivos con familiares. El 72% de los padres establecen límites de tiempo de uso, pero menos de la mitad (43%) de las familias utiliza herramientas de control parental y conoce los centros de ayuda de seguridad digital.

En cualquier caso, la adolescencia supone un desafío para las familias: el 71 por ciento de ellas con hijos de 13 a 17 años reconoce que es más difícil establecer normas sobre Internet a medida que los hijos crecen.

FUENTE

Add a comment
  • Hits: 108

El aprendizaje social aceleró hace 600.000 años el conocimiento tecnológico en los humanos

La acumulación gradual de conocimientos y habilidades a lo largo de generaciones ha posibilitado comportamientos cada vez más complejos, pero ¿cuándo empezaron nuestros antepasados a desarrollar esta cultura acumulativa y a dominar el aprendizaje social? Un nuevo estudio concluye que hace unos 600.000 años.

Los resultados se publican en la revista PNAS, en un artículo que firman, entre otros, los investigadores Charles Perreault y Jonathan Paige, de la Universidad Estatal de Arizona, en Estados Unidos.

La cultura acumulativa la acumulación de modificaciones y mejoras tecnológicas a lo largo de generaciones- permitió a los humanos adaptarse a una diversidad de entornos y retos, pero no está claro cuándo se desarrolló durante la evolución de los homínidos y cuándo nuestros antepasados empezaron a establecer conexiones y a basarse en los conocimientos de los demás, diferenciándose de otros primates.

El nuevo trabajo concluye que los humanos empezaron a acumular rápidamente conocimientos tecnológicos a través del aprendizaje social hace unos 600.000 años.

"Nuestra especie, el Homo sapiens, ha logrado adaptarse a condiciones ecológicas -desde los bosques tropicales hasta la tundra ártica- que requieren resolver distintos tipos de problemas", relata Perreault, para quien la cultura acumulativa es clave porque permite a las poblaciones humanas aprovechar y recombinar las soluciones de generaciones anteriores y desarrollar con gran rapidez nuevas soluciones complejas a los problemas.

En un comunicado el investigador subraya: "El resultado es que nuestras culturas, desde los problemas y soluciones tecnológicas hasta la forma en que organizamos nuestras instituciones, son demasiado complejas para que los individuos las inventen por sí solos".

Para investigar cuándo pudo comenzar este giro tecnológico, Paige y Perreault analizaron los cambios en la complejidad de las técnicas de fabricación de herramientas de piedra a lo largo de los últimos 3,3 millones de años del registro arqueológico.

Los investigadores desglosaron esta complejidad en función del número de pasos (PUs o unidades de procedimiento) que implicaba cada secuencia de fabricación.

Los resultados indicaron que entre hace 3,3 y 1,8 millones de años -cuando existían los australopitecos y las primeras especies de Homo- las secuencias de fabricación de herramientas de piedra se mantuvieron dentro del intervalo de las líneas de referencia (de 1 a 6 PUs).

Desde hace aproximadamente 1,8 millones de años hasta hace 600.000, las secuencias de fabricación empezaron a solaparse con la línea de base de complejidad (4 a 7 PUs) y a superarla ligeramente. Pero, después de hace unos 600.000 años, la complejidad de las secuencias de fabricación aumentó rápidamente (de 5 a 18 PUs).

"Hace unos 600.000 años, las poblaciones de homínidos empezaron a depender de tecnologías inusualmente complejas, y solo vemos aumentos rápidos de la complejidad también después de esa época", apunta Paige.

Es probable que los primeros homínidos, hace entre 3,4 y 2 millones de años, recurrieran a estrategias de búsqueda de alimentos que requerían herramientas, como el acceso a la carne, el tuétano y los órganos, lo que provocó cambios en el tamaño del cerebro, la duración de la vida y la biología, que prepararon el camino hacia la cultura acumulativa.

Aunque otras formas de aprendizaje social pueden haber influido en la fabricación de herramientas, es solo en el Pleistoceno medio cuando hay pruebas de un rápido aumento de la complejidad tecnológica y del desarrollo de otros tipos de nuevas tecnologías.

El Pleistoceno medio también muestra pruebas consistentes del uso controlado del fuego, los hogares y los espacios domésticos, probablemente componentes esenciales del desarrollo de la cultura acumulativa.

También se desarrollaron otros tipos de tecnologías complejas, como las estructuras de madera construidas con troncos tallados con herramientas con mango.

Todo ello sugiere, según los autores, que la cultura acumulativa surgió cerca del comienzo del Pleistoceno medio. Los hallazgos sugieren que el origen de la cultura acumulativa coincidió con un aumento de la masa cerebral y una mayor esperanza de vida en la evolución humana.

FUENTE

Add a comment
  • Hits: 114

La Inteligencia Artificial ayuda a entender las supernovas

Científicos de la Universidad de Warwick están utilizando inteligencia artificial (IA) para analizar supernovas para ayudar a revelar cómo se produjeron estas explosiones cósmicas.

Su artículo se publica en Monthly Notices of the Royal Astronomical Society.

Muchas estrellas del universo terminarán sus vidas como enanas blancas, estrellas compactas que contienen aproximadamente la masa del Sol en el tamaño de la Tierra. 

Algunas de estas enanas blancas eventualmente explotarán como supernovas. 

El proceso es altamente energético y da como resultado la creación de elementos pesados ??que son los componentes básicos de la vida, como el calcio y el hierro, que se liberan nuevamente al universo.

A pesar de su importancia, los astrónomos aún no saben exactamente cómo o por qué se producen estas supernovas.

El autor principal, el Dr. Mark Magee, del Departamento de Física de la Universidad de Warwick, dijo en un comunicado: "Cuando investigamos las supernovas, analizamos sus espectros. Los espectros muestran la intensidad de la luz en diferentes longitudes de onda, que se ve afectada por los elementos creados en la supernova. 

Cada elemento interactúa con la luz en longitudes de onda únicas y, por lo tanto, deja una firma única en los espectros.

"El análisis de estas firmas puede ayudar a identificar qué elementos se crean en una supernova y proporcionar más detalles sobre cómo explotaron las supernovas.

"A partir de estos datos, preparamos modelos, que se comparan con supernovas reales para establecer qué tipo de supernova es y exactamente cómo explotó. Por lo general, un modelo puede tardar entre 10 y 90 minutos en generarse y queremos comparar cientos o miles de modelos para comprender completamente la supernova. Esto no es realmente factible en muchos casos.

"Nuestra nueva investigación se alejará de este largo proceso. Entrenaremos algoritmos de aprendizaje automático sobre cómo se ven los diferentes tipos de explosiones y los usaremos para generar modelos mucho más rápidamente. De manera similar a cómo podemos usar la IA para generar nuevas ilustraciones o textos, ahora podremos generar simulaciones de supernovas. Esto significa que podremos generar miles de modelos en menos de un segundo, lo que será un gran impulso para la investigación sobre supernovas".

Además de acelerar el proceso de análisis de supernovas, el uso de la IA también permitirá una mayor precisión en la investigación. 

Esto ayudará a establecer qué modelos coinciden más con las explosiones de la vida real y el rango de sus propiedades físicas.

El Dr. Magee agregó: "Explorar los elementos liberados por las supernovas es un paso crucial para determinar el tipo de explosión que ocurrió, ya que ciertos tipos de explosiones producen más de algunos elementos que otros. "Podremos relacionar las propiedades de la explosión con las propiedades de las galaxias anfitrionas de la supernova y establecer un vínculo directo entre cómo se produjo la explosión y el tipo de enana blanca que explotó".

El trabajo ahora aceptado es solo el primer paso. Las investigaciones futuras se ampliarán para incluir una variedad aún mayor de explosiones y supernovas, y vincularán directamente la explosión y las propiedades de la galaxia anfitriona. 

Es solo a través de los avances en el aprendizaje automático que este tipo de investigación ahora es posible.

El Dr. Thomas Killestein, de la Universidad de Turku, quien también participó en la investigación, agregó: "Con los estudios modernos, finalmente tenemos conjuntos de datos del tamaño y la calidad para abordar algunas de las preguntas clave restantes en la ciencia de las supernovas: cómo explotan exactamente. Los enfoques de aprendizaje automático como este permiten estudios de un mayor número de supernovas, con mayor detalle y con más consistencia que los enfoques anteriores".

fuente

Add a comment
  • Hits: 150

Conoce los prefijos más peligrosos en WhatsApp: contestarles es un peligro para tu privacidad

Seguramente en algún momento te ha llegado un mensaje a WhatsAp desde un número de teléfono muy extraño. A pesar de que hablen español, el prefijo del contacto no es el mismo de tu país y esta situación seguramente se trata de una estafa.

Los ciberdelincuentes utilizan diversos trucos y tácticas para engañar a las personas y obtener información confidencial, dinero o acceso a dispositivos. Una de sus estrategias más comunes es iniciar el contacto a través de un mensaje enviado desde un número con prefijo internacional.

 

La idea de ellos es ofrecer una oferta laboral, un concurso o indicar que hemos ganado un premio, invitando a dar datos o acceder a una web para robar información. Eso ha permitido identificar ciertos prefijos peligrosos en la aplicación de mensajería.

Prefijos peligrosos en WhatsApp

+62 (Indonesia)

Es uno de los más comúnmente utilizados por los estafadores en WhatsApp. Los mensajes de estafa que provienen de números con este prefijo suelen incluir ofertas de préstamos rápidos y fáciles, que prometen condiciones tentadoras, pero terminan siendo fraudulentas.

Además, también se han reportado casos de venta de productos a precios muy bajos, los cuales nunca llegan a ser entregados. Otra táctica usual es enviar mensajes haciéndose pasar por servicios de soporte técnico, solicitando acceso remoto al dispositivo del usuario para resolver supuestos problemas. Estas prácticas tienen el objetivo de robar información personal y financiera o instalar malware en el dispositivo de la víctima.

+685 (Samoa Occidental)

Está asociado con estafas de lotería y premios. Los mensajes que utilizan este prefijo informan a las víctimas de que han ganado un premio sustancial y solicitan el pago de “tasas” para liberar el dinero. La realidad es que estos premios no existen y el objetivo es que la víctima pague estas supuestas tasas, perdiendo dinero en el proceso.

+27 (Sudáfrica)

Son conocidos por enviar mensajes que pretenden ser de bancos, solicitando información confidencial. Estos mensajes suelen incluir un sentido de urgencia o miedo, tratando de presionar a la víctima para que actúe rápidamente sin verificar la autenticidad del mensaje.

Otra forma común de estafa es ofrecer supuestas oportunidades de inversión que prometen grandes retornos, incitando a las víctimas a transferir dinero.

+216 (Túnez)

Es otro que aparece frecuentemente en los informes de estafas de WhatsApp. Los mensajes fraudulentos provenientes de números tunecinos a menudo incluyen enlaces maliciosos que, si se hace clic en ellos, pueden descargar malware en el dispositivo del usuario o dirigirlos a sitios de phishing diseñados para robar información personal y financiera.

+94 (Sri Lanka)

Desde estos números los estafadores suelen hacerse pasar por amigos y familiares en apuros que necesitan dinero urgentemente. Estos mensajes apelan a la compasión de las víctimas, manipulándolas para que transfieran fondos rápidamente sin verificar la veracidad de la situación.

+256 (Uganda)

Es otro país habitual en las estafas por WhatsApp. Los ciberdelincuentes a menudo emplean tácticas de ingeniería social, como fingir ser autoridades o una figura de confianza para solicitar transferencias de dinero o información sensible. También son comunes las estafas románticas, donde los delincuentes establecen relaciones sentimentales falsas para, eventualmente, pedir dinero a sus víctimas.

+222 (Mauritania)

Los estafadores que usan números de este país a menudo se centran en fraudes relacionados con trabajos y oportunidades de negocio falsas. Prometen empleos muy bien pagados o inversiones en proyectos inexistentes, pidiendo a las víctimas que envíen dinero para cubrir “gastos administrativos” o “costos de inicio”.

Cómo evitar estos riesgos en WhatsApp

  • Desconfía de mensajes de números desconocidos

Si recibes un mensaje de un número que no tienes guardado en tus contactos, especialmente si tiene un prefijo internacional, es importante ser cauteloso. La mayoría de las estafas comienzan con un mensaje no solicitado de un número desconocido.

  • No compartas información personal o financiera

Nunca proporciones información personal, financiera o confidencial a través de WhatsApp, especialmente si no has verificado la autenticidad del remitente. Los bancos y otras instituciones legítimas no solicitan información confidencial a través de mensajes de texto o aplicaciones de mensajería.

  • No haga clic en enlaces sospechosos

Evita hacer clic en enlaces enviados por números desconocidos. Estos enlaces pueden llevar a sitios web maliciosos o descargar malware en tu dispositivo.

  • Utiliza las funciones de seguridad de WhatsApp

WhatsApp ofrece varias funciones de seguridad que pueden ayudarte a proteger tu cuenta, como la verificación en dos pasos. Activa esta función para añadir una capa extra de seguridad a tu cuenta.

  • Bloquea y reporta números sospechosos

Si recibes un mensaje sospechoso, bloquea el número y repórtalo a WhatsApp. Esto no solo te protege a ti, sino que también ayuda a prevenir que otras personas sean víctimas de estafas similares.

fuente

Add a comment
  • Hits: 540

La IA se pone al servicio de la lucha contra las falsificaciones de arte

La inteligencia artificial inquieta por su habilidad para imitar el arte, pero nuevas empresas especializadas en esa tecnología como Art Recognition muestran que también puede ayudar en el combate contra las falsificaciones artísticas, según explica a EFE su responsable, Carina Popovici.

La firma, pionera en el uso de IA para la autentificación de obras de arte, recientemente ha saltado a los medios tras descubrir que más de 40 pinturas falsificadas, entre ellas una presunta obra de Monet y otra de Renoir, estaban intentando ser vendidas en eBay.

«A pesar de la percepción de que la IA representa una amenaza para los conocedores de arte, eso está lejos de ser verdad, y por el contrario está dedicada a complementar a los expertos en arte y los métodos tradicionales de autentificación», subrayó Popovici, consejera delegada y fundadora de la empresa.

Popovici creó en 2019 Art Recognition, con sede en un centro de desarrollo de empresas emergentes en la pequeña localidad de Adliswil, a las afueras de Zúrich, y ya trabaja con galerías de arte, casas de subastas y coleccionistas. 

¿Cómo funciona?

«Usamos una inteligencia artificial basada en una red neuronal convolucional, que puede aprender de las características principales de un artista a partir de fotografías auténticas y posteriormente reconocerlas en una nueva obra de arte no vista anteriormente», explica Popovici, también diseñadora del software.

Para ello, la IA tiene antes que pasar por una fase de entrenamiento, en la que examina durante un periodo de entre uno y tres días fotografías de todas las obras conocidas del artista y ejemplos negativos de falsificaciones si los hubiera, usando proveedores de servicios integrales de centros de datos en la nube, como AWS y Azure.

Una de las principales características que ayudan al software a verificar sí la obra es o no del autor en cuestión son las pinceladas utilizadas sobre el lienzo, pero la IA también analiza otros elementos como la paleta de colores usada, o el nivel de composición.

«Tradicionalmente, la autentificación de arte ha dependido de la experiencia y el juicio de expertos, que todavía son la autoridad dominante en el sector, pero este enfoque es subjetivo, y se abre la posibilidad al error humano», subraya Popovici.

«Concentra una gran cantidad de poder en manos de una sola persona, lo que a menudo ha llevado a disputas, controversias y desafíos legales en el mundo del arte», argumenta.

Art Recognition tampoco se presenta como infalible (presenta sus resultados con un porcentaje de probabilidad que en los recientes casos en eBay superaba el 90 %) y según la responsable de la firma tiene también sus limitaciones.

Los impresionistas, los más fáciles de verificar

Esta tecnología, explica Popovici, por ahora no puede verificar una obra de Vermeer, dado que sólo existen unas 36 (cuanto más grande es la base de datos, más precisión), y tampoco puede distinguir eficazmente obras altamente restauradas, como el ‘Salvator Mundi» que aún se discute si pinto o no Leonardo da Vinci.

En el arte contemporáneo, esta nueva herramienta tiene problemas para verificar copias de los célebres drippings (obras a base de salpicaduras y chorros) de Jackson Pollock o de los originales de Modigliani, creador en torno al que los expertos no se ponen aún de acuerdo sobre cuáles son sus verdaderas obras.

En cualquier caso, Popovici ofrece la labor de su compañía para «contribuir a un mercado de arte más transparente».

Un sector que, reconoce, está amenazada por la propia IA, «capaz de replicar los estilos de artistas renombrados, produciendo falsificaciones que inundan el mercado» pero que, como tantos avances del pasado, es una herramienta de doble filo que al mismo tiempo puede beneficiar al arte.

«Entrenamos nuestro algoritmo para diferenciar piezas auténticas de falsificaciones generadas por IA, alimentando también al programa con falsificaciones digitales», subraya.

Por otro lado, añade, esta tecnología no sólo puede ayudar en el combate a las imitaciones sino que ya participa en el mundo del arte mediante experiencias interactivas en museos y galerías, o en análisis de datos de tendencias de mercado.

«Además, los modelos de IA generativa están revolucionando la forma en que los artistas exploran la creatividad, y estoy segura de que veremos obras asistidas por ella aún más espectaculares en el futuro», defiende.

Art Recognition se ha probado ante cuadros en los que hay amplios debates sobre su autoría, como un «Sansón y Dalila» expuesto en la National Gallery londinense y atribuido por algunos expertos a Rubens.

El software diseñado por Popovici consideró que la obra no era del maestro flamenco, mientras que en un test similar con un autorretrato de Van Gogh atesorado por el Museo Nacional de Oslo sí declaró su autenticidad. 

fuente

Add a comment
  • Hits: 400

Inteligencia Artificial generativa amenaza la economía de los medios de comunicación

Al presentar una respuesta escrita por inteligencia artificial (IA) a las búsquedas de los internautas, Google amenaza parte del modelo económico de Internet, en particular el de los medios de comunicación, ya fuertemente debilitados.

Los enlaces tradicionales a páginas de Internet no han desaparecido, pero con AI Overviews, un programa presentado el martes, quedan relegados al texto propuesto por la IA generativa, cuyo contenido probablemente satisfaga, solamente, la curiosidad de los usuarios.

"Esto tendrá un impacto negativo en las marcas y los sitios que producen contenido y dependen del tráfico de los motores de búsqueda", dijo Paul Roetzer, del Marketing AI Institute. "Pero no sabemos hasta qué punto podemos hacer algo al respecto ni qué podríamos hacer".

La consultora Gartner predice que el volumen generado por los motores de búsqueda tradicionales se contraerá un 25% para 2026, con la aparición de aplicaciones de IA generativa.

A pesar de esta revolución, Google no puede prescindir de la publicidad y tendrá que adaptar su oferta a los anunciantes. "De lo contrario, se habrá cortado las patas con la IA", afirma David Clinch, de la consultora Media Growth Partners.

Hema Budaraju, del equipo de búsqueda de Google, asegura que durante las pruebas realizadas en Overview, los sitios y enlaces involucrados en la respuesta "se beneficiaron de un mayor tráfico" que en la antigua fórmula de búsqueda.

"La pregunta es ¿quién elige esos enlaces?", plantea el consultor. "¿Cómo puedo asegurarme de que mis enlaces, mi sitio y mi contenido estén incluidos en estos resultados?", continúa. "Imagino que habrá que pagar, que no será tan diferente a lo que ha existido hasta ahora".

Con Overviews, Google reforzará su posición como intermediario entre los internautas y los sitios web.

LA IMPORTANCIA DE LAS FUENTES

"Google se enfrenta a una presión inmensa", afirma David Clinch. "Otros actores ya han demostrado que la IA" generativa, que responde en un lenguaje simple y cotidiano a las solicitudes que se le formulan, "podría funcionar sin enlaces ni publicidad", como es el caso de ChatGPT.

Clinch considera que se está ampliando la brecha entre los grandes actores de la web y los pequeños, es decir publicaciones, empresas, creadores, "que ya no disponían de medios suficientes como para mejorar sus referencias" en el motor de búsqueda.

El creciente control de los gigantes tecnológicos sobre la publicidad ya ha dejado sin aire a numerosos medios de nueva generación, desde BuzzFeed hasta Vice, pasando por The Daily Beast, Quartz y Huffington Post, cuya venta de espacio a los anunciantes es su principal fuente de ingresos.

Pero también ha asfixiado a publicaciones locales o regionales, que a menudo no logran convertir un número suficiente de lectores en suscriptores para reducir su dependencia y equilibrar sus cuentas.

Solo un puñado de cabeceras de importancia nacional o internacional, como el New York Times y el Wall Street Journal, han conseguido salir airosos.

Para Paul Roetzer, los creadores de contenidos, medios de comunicación u otros, deberán "diversificar" los canales de distribución y los medios de generación de tráfico, en particular a través de las redes sociales, YouTube, TikTok, pero también los podcasts, "si aún no lo han hecho".

De todas maneras, el recurso a la IA generativa como interfaz de investigación no se ha consolidado aún.

Desde el lanzamiento de ChatGPT en noviembre de 2022, se ha hablado mucho de los errores o "alucinaciones" de los "chatbots" en sus respuestas.

Tanto Overviews como el motor de búsqueda Bing de Microsoft (impulsado por IA o ChatGPT) deben todavía demostrar que son confiables.

"Las fuentes van a cobrar más importancia que nunca", advierte Jeff Jarvis, profesor de periodismo en la universidad pública de Nueva York (CUNY). "La cuestión reside en saber si los medios de comunicación pueden poner su información a disposición de estos sistemas para ganar exposición".

"Eso cambiaría el modelo económico, pero creo que es una oportunidad" para la prensa, afirmó.

Hasta ahora, los medios de comunicación han emprendido, en su mayoría, acciones legales contra los grandes modelos de IA generativa, a los que acusan de haber saqueado sus contenidos.

"Esto es un sálvese quien pueda", lamenta Jeff Jarvis, "cuando podríamos unirnos para pensar en cómo puede funcionar este nuevo ecosistema".

fuente

Add a comment
  • Hits: 283

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

JUEGO DE DOMINACIÓN MUNDIAL

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

¿ERES UN ROBOT?

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

fuente

Add a comment
  • Hits: 371

WhatsApp deja de ser compatible con ciertos modelos de iPhone a partir de mayo de 2024

Santo Domingo.- Por razones de actualización de software, WhatsApp dejará de funcionar en varios dispositivos móviles iPhone que tienen alrededor de una década en el mercado. Esta medida afectará a una cantidad significativa de usuarios, ya que los modelos afectados son bastante populares entre los seguidores de Apple.

Los dispositivos iPhone que ya no serán compatibles con WhatsApp a partir de mayo de 2024 son los siguientes:

iPhone 6S

iPhone SE

iPhone 6S Plus

iPhone 5

iPhone 6

¿Por qué estos modelos de iPhone ya no serán compatibles con WhatsApp?

WhatsApp actualiza regularmente los requisitos del sistema operativo para garantizar la seguridad, introducir nuevas funciones y mejorar la experiencia del usuario. Cuando los dispositivos no cumplen con estos requisitos mínimos, dejan de recibir soporte y la aplicación ya no funcionará en ellos.

Estos criterios pueden incluir la versión del sistema operativo y las capacidades técnicas del dispositivo. Los usuarios afectados generalmente reciben notificaciones para actualizar su sistema operativo o cambiar a un dispositivo compatible.

fuente

Add a comment
  • Hits: 170

Observan "Mano de Dios" emergiendo desde nebulosa

A unos 1,300 años luz, en la constelación de Puppis, una mano fantasmal emerge desde el medio interestelar y se extiende hacia el cosmos.

La imagen fue obtenida por la Cámara de Energía Oscura del Observatorio Cerro Tololo en Chile, un programa de NOIRLab.

Según informa la NASA, se trata del cúmulo cometario conocido por la sigla CG 4, una estructura turbia y ominosa a la que también se la conoce con el apodo de "la mano de Dios", el cual es uno de los tantos cúmulos cometarios presentes en la Vía Láctea. La forma distintiva de estos objetos y su formación sigue siendo un tema de debate entre los astrónomos.

Los glóbulos cometarios son una subclase de las nebulosas oscuras conocidas como glóbulos de Bok, nubes aisladas de denso gas y polvo cósmico, rodeadas de material ionizado y muy caliente. 

Cuando en estas nubes se produce un desprendimiento de material que da como resultado una cola que se extiende por el espacio, se les conoce como glóbulos cometarios debido a su vago parecido a un cometa, aunque no tienen nada en común.

Las características que clasifican a CG 4 como un glóbulo cometario no pasan desapercibidas en esta imagen captada con la Cámara de Energía Oscura (DECam), construida por DOE e instalada en el Telescopio de 4 metros Víctor M. Blanco del Observatorio Cerro Tololo (CTIO), un Programa de NOIRLab de NSF. Su polvorienta cabeza, con un diámetro de 1.5 años luz, y su larga y tenue cola, de unos ocho años luz de longitud, convierten a CG 4 en un pequeño glóbulo de Bok, una característica general de los glóbulos cometarios.

fuente

Add a comment
  • Hits: 139

Noticias Recientes

Wellington Arnaud realiza encuentro con …

 El director ejecutivo del Instituto Nacional de Aguas Potables y Alcantarillados (INAPA), Wellington Arnaud, se reunió con representantes de juntas de vecinos en la provincia María Trinidad Sánchez, donde reafirmó su compromiso de...

Medidas clave para protegerte del frente…

Con la llegada de los frentes fríos, especialmente en los últimos meses del año, las bajas temperaturas, el viento intenso y la lluvia afectan diversas provincias del país. Estos fenómenos climáticos...

Criminales haitianos iban a Pedernales a…

El mercado binacional de Pedernales y esa provincia, serían los escenarios en donde los criminales haitianos se abastecían de municiones robadas en el almacén de la Policía Nacional por un...

Debate en la ONU sobre envío de cascos a…

Haití atraviesa una de sus peores crisis de seguridad en la historia reciente. Las bandas armadas han incrementado su poder y control sobre diversas áreas, lo que ha dejado a...

Tres trabajadores heridos tras el colaps…

Un incidente en el Arzobispado de Santiago dejó a tres trabajadores de la construcción con diversas heridas, tras el desplome de una pared, mientras realizaban labores de remodelación. La situación...

Refuerzan seguridad en hospitales ante r…

Ante las agresiones que se han registrado en los últimos días contra personal que labora en las emergencias hospitalarias, el Servicio Nacional de Salud (SNS) manifestó su repudio a todo acto de violencia contra...