Skip to main content

Tecnología

Un experto en inteligencia artificial avisa de que aún no genera suficiente confianza

 El neurocientífico y profesor de la Universidad de Nueva York Gary Marcus ha avisado de que la inteligencia artificial a día de hoy aún no ha generado suficiente confianza en la población.

«Todavía no podemos confiar plenamente en la inteligencia artificial», expresó Marcus, que es profesor emérito de Psicología y Ciencias Neuronales de la Universidad de Nueva York.

 

Marcus inauguró este lunes una conferencia de la organización de Evaluación de Tecnología del Parlamento Europeo (EPTA, en sus siglas en inglés), una red de organizaciones que asesoran en ciencia y tecnología a cámaras legislativas y que este año está presidida por el Consejo Asesor del Parlament en Ciencia y Tecnología (CAPCIT).

En la jornada, que ha tenido lugar en el auditorio del Parlament de Cataluña (España), Marcus justificó la falta de confianza en la IA porque sus modelos lingüísticos «no son herramientas convencionales, lo que quiere decir que se basan en suposiciones, por lo que tienen más facilidad de equivocación y margen de error».

Por eso mismo, consideró que sería necesario disponer de institutos de investigación especializados en la IA, para lograr que esta sea «mucho más fiable» y pueda generar más confianza.

En el marco de esta jornada, expertos debatieron los riesgos y retos de la Inteligencia Artificial Generativa en la democracia y políticas públicas (IAG).

La IAG es una rama de la Inteligencia Artificial destinada a la generación de contenido nuevo a partir de datos que ya existen, como por ejemplo el ChatGPT, y que ha irrumpido con profundas implicaciones en la democracia y la sociedad.

En la sesión dedicada específicamente a los efectos en la democracia de las nuevas tecnologías, el eurodiputado italiano y correlator de la ley europea sobre la IA Brando Benifei expuso la preocupación por el mal uso de la IA y los riesgos de la desinformación, así como las consecuencias que pueden causar.

En la jornada también se abordaron las posibilidades de la IA en el sector sanitario y educativo, así como también en el mercado laboral y en la desigualdad social. 

Add a comment
  • Hits: 143

Meta planea cobrar 13 euros al mes en Europa por utilizar Instagram y Facebook sin anuncios

Meta planea implementar un nuevo sistema de suscripción con el que los usuarios de Instagram y Facebook tendrán que pagar hasta 13 euros por acceder a sus servicios sin anuncios y contenido publicitario personalizado desde sus teléfonos móviles.

 

La compañía busca alinearse con los requerimientos impuestos por la Ley de Servicios Digitales (DSA), que entró en vigor a finales del pasado mes de agosto y que prohíbe a las plataformas presentar anuncios basados en el uso de datos personales, especialmente a los menores.

Con la introducción de esta regulación, Meta deberá solicitar el consentimiento de los usuarios para mostrar anuncios personalizados, hasta ahora su principal fuente de ingresos, que podría verse amenazada por las imposiciones de la Unión Europea.

Fuentes relacionadas con la compañía adelantaron hace un mes que estaba preparando una opción de pago para mantener parte de estos ingresos, al ofrecer Facebook e Instagram en una versión de pago sin anuncios, según recogió The New York Times. De ese modo, la tecnológica podría cumplir con la regulación de la UE.

No obstante, estas personas cercanas a la empresa confirmaron que Meta pretende seguir ofreciendo versiones gratuitas de Facebook e Instagram con anuncios en los países miembro, como ha hecho hasta ahora.

Un portavoz de Meta ha confirmado ahora que si bien la compañía cree en "servicios gratuitos respaldados por anuncios personalizados", está barajando opciones para garantizar que se cumplan los requisitos que exige la regulación europea, tal y como recoge Wall Street Journal.

Este periódico ha concretado cuáles serán los precios de la opción de pago comentada en septiembre y ha señalado que la compañía cobraría alrededor de 10,50 dólares (unos 10 euros) mensuales por utilizar una cuenta de Facebook o Instagram en su versión de Escritorio, y unos seis euros por cada cuenta adicional vinculada, según personas relacionadas con Meta.

En cuanto a los dispositivos móviles, el precio de la suscripción sin anuncios rondaría los 13 euros al mes, puesto que el desarrollador tendría en cuenta las comisiones que cobran las tiendas de aplicaciones (15 por ciento en el caso de Apple).

 

Add a comment
  • Hits: 140

Cuando una inteligencia empieza a hablar

Hace muchos años que la inteligencia artificial viene logrando hazañas sorprendentes. Pilotear aviones, mejorar los diagnósticos médicos, o jugar al ajedrez mejor que el campeón del mundo.

Te puede interesar:Inteligencia artificial de ChatGPT ya tiene acceso a internet y datos recientes

 

Pero reconocer o producir lenguaje es una tarea bien distinta. Porque el lenguaje, como la música, sucede en el tiempo. Decía la filósofa Susanne Langer que la música es el laboratorio para sentir en el tiempo y algo parecido sucede con las ideas y el lenguaje; la información se expresa de manera secuencial, una palabra detrás de otra, y el sentido de muchas palabras solo puede entenderse de acuerdo con el contexto en que se utilizan: qué viene antes y qué después.

Por eso la comprensión del lenguaje está plagada de contexto, de cosas no dichas que se presuponen, y de expectativas que se construyen en el tiempo presente con la información del pasado. Podemos entenderlo con el ejemplo de nuestro amigo Juli Garbulsky: “Es increíble cómo la gente se sorprende cuando una frase no termina exactamente como ellos lechuga”. “Lechuga” funciona en esa frase como una nota desafinada, una entrada que está fuera de las expectativas que el cerebro ha ido construyendo, a la velocidad vertiginosa en la que se suceden las palabras en una frase.

Para resolver este problema, a principios de este siglo se utilizó un tipo de red neuronal llamado “redes neuronales recurrentes” (RNN), que incorporaban un mecanismo de memoria. Sin embargo, los avances fueron lentos y tortuosos.

Te puede interesar:CEO de OpenAI y ex diseñador de Apple se reúnen para crear el “iPhone” de la inteligencia artificial

La solución llegó en 2017, de la mano de un artículo publicado por investigadores de la Universidad de Toronto, financiado por Google, simpáticamente titulado Attention is all you need, en alusión a la célebre canción de los Beatles. Y como ya había hecho la mismísima banda de Liverpool en el mundo de la música, este artículo dio comienzo a una nueva era.

Lo curioso es que la idea que iba a cambiar el mundo era relativamente simple: para entender una frase no es necesario recordar todo el contexto, sino elegir bien a qué datos o conceptos mencionados antes es importante prestar atención. “Atención”, ahí está la clave. Es todo lo que se necesita. En este artículo seminal se introdujo una nueva arquitectura llamada “transformer”, que incorpora justamente un algoritmo para decidir cuánto peso darle a diferentes elementos de la secuencia o, en otras palabras, a qué prestar más atención

El objetivo de este artículo era mejorar la traducción automática entre idiomas y ni sus autores ni Google vislumbraron el impacto descomunal que tendría hacia adelante: con este hallazgo, se completaba la última pieza que faltaba para el boom actual de la IA.

Los que sí detectaron rápidamente el potencial de este nuevo tipo de arquitectura para una red neuronal fueron los investigadores de una compañía que recién comenzaba llamadaOpenAI. Su cerebro científico, Ilya Sutskever, seguramente pase a la historia, para bien o para mal, como uno de los artífices detrás del demorado arribo de las inteligencias artificiales realmente poderosas.

Envalentonado por el potencial de los transformers, se propuso hacer un experimento: ¿Qué pasaría si hiciéramos una red neuronal ”generativa, “preentrenada” y basada en “transformers”? Basta unir las iniciales para ver que el experimento fue exitoso. Así nació GPT.

Te puede interesar:Paint ahora tiene inteligencia artificial para crear imágenes profesionales

A partir de este hallazgo, la IA se volvió increíblemente efectiva para entender qué palabra va con cuál y, al captar de manera profunda la relación entre las palabras, adquirió un conocimiento equivalente a entender la gramática del lenguaje. Justamente, fue el algoritmo de atención de los transformers el que le permitió disponer del contexto necesario de cada palabra en la memoria para lograr este objetivo. Y esto se hizo no para uno, sino para al menos 30 idiomas diferentes.

Entendiendo de esta manera la lógica profunda que subyace detrás de la lengua, GPT puede construir frases increíblemente humanas, prescindiendo de la semántica (saber qué significa cada palabra). Dicho de otra manera, ha aprendido a hablar con un estilo increíblemente humano y a decir cosas interesantes y de gran trascendencia, sin tener la menor idea de lo que está diciendo.

Con el crecimiento descomunal en el tamaño de la red y sus parámetros, nació un nuevo tipo de IA. A las redes neuronales basadas en transformers, entrenadas con enormes volúmenes de texto para producir lenguaje se las bautizó como LLM (Large Language Models), es decir, Grandes Modelos de Lenguaje. Y parece que el tamaño en esto sí importa. Porque estos nuevos modelos comenzaron a mostrar resultados completamente sorprendentes, ¡incluso para sus propios creadores!

Con el aumento de escala de los LLM, se abrieron puertas fascinantes e inesperadas. Podemos pensar qué sucede con la adquisición del lenguaje en el desarrollo de un bebé. Aun cuando en los primeros meses de vida se logran aprendizajes extraordinarios, todo ese proceso cognitivo adquiere una progresión explosiva cuando un chico consigue combinar arbitrariamente todas sus facultades gracias al uso del lenguaje.

Por eso, a ningún padre o madre se le escapa que, cuando su hijo empieza a hablar, hay todo un universo nuevo que se abre y el vínculo cambia de manera profunda, impulsado por la amplia ventana de posibilidades que dan las palabras. El uso del lenguaje permite saber a los padres por qué llora su hijo y qué le duele, y sienten una enorme y grata sorpresa cuando este argumenta por primera vez por qué quiere hacer algo, o cuando expresa sus dudas, anhelos, miedos o sueños.

Los humanos no somos mejores que el resto de los animales en el reconocimiento de objetos. Nuestra gran singularidad está en el vínculo con el lenguaje. Por eso, los LLM generan una revolución en la IA similar a la que ocurre en la inteligencia humana cuando un niño comienza a balbucear las primeras palabras.

Es que el lenguaje es la materia de la que está hecho el pensamiento humano. Cuando una IA aprende a generar lenguaje, en cierta manera está aprendiendo a pensar, aun cuando por ahora no haya en la máquina un ente que sea sujeto de ese pensamiento. Una vez más, sin saber nada del significado de las palabras, logra armar un discurso novedoso, interesante, profundo y coherente, aun cuando en realidad el programa no tiene ni idea de lo que está diciendo.

Así como nuestros hijos dicen cosas sorprendentes, que a nosotros nunca se nos hubiesen ocurrido, las IA empiezan ya también a encontrar atributos que les permiten superarnos en algunos aspectos de la lengua. Somos contemporáneos de esa transformación y por eso, en algún punto, también somos ese padre o esa madre que es testigo fascinado de cómo un niño comienza a pensar al articular las primeras palabras. Las sorpresas recién comienzan.

Add a comment
  • Hits: 130

Hacking ético fortalece la ciberseguridad e integridad de los sistemas digitales

ESET, compañía líder en detección proactiva de amenazas, destaca que no todos los hackers son ciberdelincuentes y esta distinción es clave para comprender el universo hacker y cómo se retrata en películas y Juegos.

El hacking ético, también conocido «white hat hacking», es una práctica en la que las personas, a menudo expertos en seguridad de la información, emplean sus habilidades técnicas para identificar vulnerabilidades y fallas de seguridad en sistemas, redes y aplicaciones, con la autorización y el consentimiento de los propietarios.

 

El objetivo principal del hacking ético es fortalecer la ciberseguridad mediante la prevención de ataques maliciosos mediante la aplicación de parches de agujeros de seguridad antes de que los ciberdelincuentes puedan explotarlos.

Los hackers éticos operan dentro de marcos legales y siguen estrictas pautas éticas, asegurando la privacidad e integridad de los datos, promoviendo así un entorno digital más seguro y confiable para todos los usuarios.

“Muchos hackers comparten este compromiso y buscan empoderar a las personas a través del conocimiento en lugar de dañar a otros. Wikipedia es un ejemplo notable de un proyecto basado en la ética hacker. Es una enciclopedia virtual colaborativa y gratuita, donde cualquiera puede contribuir y cuyo código es abierto, permitiendo la creación de otras enciclopedias virtuales”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

La visión de Hollywood. Hollywood, en su mayor parte, tiende a representar a los hackers de manera distorsionada, a menudo presentándolos como maestros en adivinar contraseñas e irrumpir en sistemas para robar información personal y corporativa. Si bien estas representaciones pueden ser emocionantes, según ESET la realidad es que, en la mayoría de los casos, estas escenas son completamente ficticias.

“En un mundo cada vez más dependiente de la tecnología, comprender la verdadera naturaleza de los hackers es crucial, con una visión realista y auténtica de su universo”.

«Al destacar que no todos son ciberdelincuentes y que muchos de ellos desempeñan un papel clave en la protección de la seguridad digital, es importante arrojar luz sobre la ética de los hackers y su compromiso con el libre acceso a la información”, agregan desde ESET Latinoamérica.

Add a comment
  • Hits: 137

ChatGPT ahora puede buscar datos en internet

La célebre interfaz de inteligencia artificial (IA) generativa ChatGPT puede ahora buscar datos directamente en internet y recopilar informaciones actualizadas en tiempo real, anunció la empresa OpenAI, creadora de la aplicación.

Hasta ahora las respuestas de ChatGPT a solicitudes en lenguaje corriente se basaban en una vasta base de datos cuyos resultados más recientes se remontaban a agosto de 2021.

 

Esto limitaba la pertinencia y la exhaustividad de los elementos propuestos por el robot conversacional que ha dado tanto que hablar desde su lanzamiento, en noviembre.

OpenAI ya había activado en junio esta opción para los suscriptores de pago de ChatGPT, pero la suspendió luego de que teóricamente los usuarios lograron acceder gratuitamente a contenidos de pago en internet.

"Browse with Bing", el producto lanzado el miércoles, también está reservado a los usuarios suscritos a los servicios Plus y Enterprise, aunque OpenAI indicó que pronto será accesible a todo los usuarios de ChatGPT.

Microsoft, socio de OpenAI, ya ofrecía acceso a Bing Chat, una integración de GPT-4 -el modelo de lenguaje que sirvió para la elaboración de ChatGPT- a su motor de búsqueda en internet, al igual que Google con Bard, su robot de conversación.

El modelo de arquitectura abierta, que permite a la aplicación acceder a contenidos de diferentes fuentes en internet, presenta más riesgos que recurrir a una base de datos única, controlada por el editor del programa.

Aunque ChatGPT presentará las fuentes usadas para sus respuestas, es más susceptible de devolver contenido con errores.

Add a comment
  • Hits: 192

Cuáles son los trabajos con mayor riesgo de ser reemplazados por el uso de Inteligencia Artificial

A diferencia de otras “revoluciones tecnológicas” que desplazaron principalmente el trabajo y las habilidades manuales en sectores de producción de bienes -en particular, en sectores fabriles- el desarrollo cada vez mayor y las aplicaciones cada vez más numerosas de la inteligencia artificial tenderán a desplazar más a personas que trabajan en el sector de servicios.

 

Y cuanto más probable es que esas tareas puedan hacerse de modo remoto, más chances habrá de que sean desplazadas por el uso de inteligencia artificial, dice un estudio del portal de empleo de EEUU Indeed en base al análisis de 55 millones de ofertas de trabajo publicadas en los doce meses transcurridos desde principios de agosto de 2022 hasta fines de julio pasado.

 

A diferencia de avances anteriores en robótica y computación, que impactaron y desplazaron largamente trabajo manual, ahora son los trabajadores del conocimiento los que más probablemente sean impactados

El estudio identificó 2.600 “habilidades” de 48 “familias” de trabajos demandadas por las empresas y analizó hasta qué punto y con qué grado de éxito las puede realizar la versión Chat GPT 4 del chatbot desarrollado por la empresa Open AI.

“Los hallazgos sobre las áreas más y menos expuestas ilustran claramente los diferentes desafíos que presenta la Inteligencia Artificial Generativa en relación a esfuerzos de automatización previos en la industria y el comercio; muchos de los trabajos más demandados en el apretado mercado de trabajo actual (se refiere al de EEUU) son los de menor potencial de reemplazo. A diferencia de avances anteriores en robótica y computación, que impactaron y desplazaron largamente trabajo manual, ahora son los trabajadores del conocimiento los que más probablemente sean impactados por la evolución de la Inteligencia Artificial Generativa. A medida que el mercado laboral se siga adaptando al aumento del trabajo remoto, más altas son las chances de que una tarea realizada de ese modo sea reemplazada por Inteligencia Artificial”, dice una de las conclusiones de la investigación.

“El modo en que la gente trabaja cambiará inevitablemente a medida que la IA gane adopción, aumentando o reemplazando ciertas tareas y forzando a repensar algunos perfiles laborales. Las tareas más automatizables –como desarrollar código, documentar tareas e identificar información relevante para diagnóstico- serán reemplazadas o apoyadas por la Inteligencia Artificial. La IA es buena, pero no grandiosa en ciertas tareas y en algunos casos es simplemente mala. Es probable que el conocimiento humano profundo, diverso y experto siga siendo altamente demandado. Personas capaces de adaptarse permanentemente y seguir aprendiendo, ya críticas hoy, serán aún más importantes en el futuro”, dice el trabajo.

Según la investigación, aquellos trabajos en que 80% o más de las tareas puedan ser hechas de “buena” o “excelente” forma por la Inteligencia Artificial son las más expuestas al reemplazo, trabajos en que esas proporciones están entre el 50 y 80% son considerados de “exposición moderada” al reemplazo, y aquellos en que la habilidad de la IA para hacer las tareas “bien” o “excelente” es menor al 50%, se consideran de baja exposición o potencial de reemplazo.

Habilidades

La investigación se concentró en el requisito de “habilidades”, sin tener en cuenta si desempeñar ciertas tareas requiere algún tipo de licencia, habilitación, certificación o grado académico, algo que según algunos investigadores limita en buena medida el desplazamiento que generará efectivamente la Inteligencia Artificial. El semanario británico The Economist señaló que así como la IA tiene alta capacidad de reemplazo de tareas de enseñanza, es improbable que ese reemplazo se generalice, debido a las propias regulaciones gubernamentales y la eventual resistencia sindical.

De los 55 millones de requerimientos empresarios, Indeed detectó los 25 trabajos más demandados y los ordenó de menor a mayor grado de reemplazabilidad.

 

Las 5 ocupaciones o trabajos menos expuestas al reemplazo por inteligencia artificial son Manejo de camiones, Tareas de Cuidado, Cocina, Servicio en restaurantes y Enfermería profesional. El listado de profesiones o trabajos de menor potencial de reemplazo y por ende menos en riesgo incluye una variedad de trabajos vinculados al cuidado y a la atención de personas y otras como el gerenciamiento de bares y restaurantes, tareas de mantenimiento y manejo de stocks e inventarios.

A su vez, los trabajos más amenazados son los de repartidores, cajeros, auxiliares médicos, vendedores o representantes de ventas, jefes de turno, técnicos, servicios de atención al cliente y asistente administrativo.

Según el estudio, las tareas de reparto están en riesgo porque el chatbot es bueno o excelente en operaciones comerciales, comunicación, matemáticas y lenguaje. Su punto débil es el manejo de vehículos, algo que –según Corey Stahley, economista de Indeed- podría salvarse con la entrega mediante el uso de drones o vehículos autónomos.

Capaces, no hospitalarios

En cuanto a los cajeros, el ChatGPT es muy bueno en “operaciones comerciales”, pero débil en “hospitalidad”. Antes incluso que el chatbot, esas tareas se empezaron a reemplazar con el uso de cajas de autopago en cadenas de supermercados.

En el caso de auxiliares médicos, las áreas con mayor riesgo de reemplazo son gestión administrativa, idiomas y comunicación. De hecho, el informe cita que muchos profesionales médicos (en EEUU) ya usan la IA para documentar diálogos con sus pacientes, simplificar papeles y ordenar historiales médicos.

Las funciones de venta también están altamente expuestas al reemplazo, aunque en este caso el estudio dice que la mayor amenaza a los vendedores no es el chat, sino las ventas online.

En el caso de las tareas de jefe de turno, el principal activo del ChatGPT sería el “funcionamiento del negocio”, el conocimiento financiero y el manejo de varios idiomas, aunque con una muy baja capacidad de “liderazgo”.

Las tareas técnicas factibles de reemplazo por ChatGPT tienen a su vez que ver con su dominio tecnológico, habilidad en operaciones comerciales y lenguaje, pero la importancia de esas capacidades varía mucho según al sector al que se apliquen, siendo por caso muy bajo en los de salud y de cuidado.

En “atención al cliente”, el estudio halló que ChatGPT es bueno o excelente en operaciones, tecnología y lenguaje, pero en un grado mucho menor en sectores como hospedaje, en los que no logra resolver problemas de cierta complejidad.

Por último, los asistentes administrativos están amenazados porque el chatbot es entre bueno y excelente en operaciones comerciales, tecnología, comunicación, finanzas y lenguaje. Su punto débil es que muchas personas siguen prefiriendo ser ayudados o atendidos por seres humanos.

Add a comment
  • Hits: 223

Amazon Prime Video incluirá comerciales pronto, o una nueva tarifa mensual para evitarlos

Las series y películas de Amazon Prime Video incluirán comerciales a partir de principios del próximo año, uniéndose así a otras plataformas de streaming que ofrecen diferentes niveles de suscripción.

 

En Estados Unidos, los miembros de Amazon Prime podrán pagar 2,99 dólares al mes para mantener su servicio libre de publicidad, dijo la empresa el viernes.

 

Amazon anunció que a partir de 2024 emitirá anuncios limitados durante sus series y películas para poder “seguir invirtiendo en contenidos atractivos y seguir aumentando esa inversión durante un largo periodo de tiempo”.

Los cambios en el contenido de Prime Video se aplicarán en Estados Unidos, Gran Bretaña, Alemania y Canadá a principios del próximo año. A finales de 2024 se incluirán también en Francia, Italia, España, México y Australia.

Add a comment
  • Hits: 121

WhatsApp Business permitirá verificar cuentas de empresas e incorporar experiencias de reserva en el chat

Meta ha anunciado las nuevas herramientas que las empresas y marcas encontrarán en WhatsApp Business, como los Flujos, que permitirán a los usuarios realizar reservas sin salir del chat, y la verificación de cuenta, con la que refuerzan su autenticidad y ofrecen mayor protección y funciones adicionales.

 

Más de mil millones de personas contactan con una cuenta de empresa a través de uno de los servicios de mensajería de Meta (WhatsApp, Messenger e Instagram) cada semana, un dato que la compañía tecnológica ha compartido este miércoles en Bombay (India), en el marco de su evento Conversations.

Este dato lo respalda el hecho de que el 71 por ciento de las personas prefieran contactar a través de mensajería y no mediante una llamada o un correo electrónico. Por ello, las novedades de Meta para WhatsApp Business, buscan ampliar las posibilidades a través de los chats.

En este sentido, la compañía ha anunciado Flujos, que permite a las empresas ofrecer a través del chat la experiencia de realizar reservas o pedidos más en detalle. Así, por ejemplo, los usuarios podrán elegir el asiento en un billete de tren o pedir una comida desde un menú completo.

Los Flujos estarán disponibles para las empresas en todo el mundo a través de la Plataforma de WhatsApp Business en las próximas semanas.

Los chats con pagos todavía no están disponibles en Europa, Oriente Medio y África (EMEA), pero sí en India, donde Meta ha ampliado los métodos de pago. De esta forma, los usuarios, sin salir de la conversación, pueden agregar artículos a su carrito de compra y enviar un pago a través de las aplicaciones UPI admitidas, tarjetas de débito y crédito, u otras opciones.

Add a comment
  • Hits: 200

Elon Musk planea cobrar una "pequeña cuota mensual" a todos los usuarios de X

Elon Musk, dueño de X, antes Twitter, contempla imponer un pago mensual a los usuarios de la red social para combatir los bots, cuentas que generan contenido incesantemente.

 

La sugerencia fue planteada durante una conversación en lunes con el primer ministro israelí, Benjamin Netanyahu.

 

El magnate de la tecnología ha implementado múltiples cambios desde que compró Twitter por 44.000 millones de dólares en octubre de 2022.

Estos cambios de estrategia incluyeron despidos en una primera instancia, después la reinstauración de cuentas prohibidas -- como la del expresidente de Estados Unidos, Donald Trump -- y más recientemente un cambio del nombre de la marca, rebautizada como X.

En julio, Musk dijo que la empresa perdió casi la mitad de sus ingresos publicitarios.

Los bots son cuentas creadas por programas informáticos, que difunden o replican constantemente mensajes, habitualmente con contenido político o social polémico.

La idea surgió durante una conversación pública con Netanyahu en X.

El primer ministro le preguntó a Musk sobre el combate contra el antisemitismo en la red.

Musk le respondió que su empresa podría orientarse hacia "una pequeña cuota mensual por el uso del sistema".

"Es la única forma que se me ocurre para combatir vastos ejércitos de bots", afirmó el empresario.

El emprendedor de Silicon Valley explicó que hacer funcionar un bot cuesta una fracción de centavo, por lo que si alguien tiene que pagar unos pocos dólares para mantener su perfil, el costo efectivo de usar un robot de contenido se vuelve muy alto.

"Y además, de esta forma se debe disponer de un nuevo método de pago cada vez que use un nuevo bot", explicó Musk.

Add a comment
  • Hits: 176

Noticias Recientes

Apresan a cuatro motociclistas captados …

 La Policía Nacional informó este jueves sobre la detención de cuatro hombres involucrados en el robo de fundas con alimentos de primera necesidad, sustraídas de varios camiones en un hecho ocurrido en...

Embajada de EE. UU. emite alerta de segu…

La situación en la frontera entre la República Dominicana y Haití sigue siendo tensa, lo que ha llevado a la embajada estadounidense a emitir una alerta para todos los ciudadanos...

Aumento salarial de médicos será discuti…

 La enmienda que envió el presidente Luis Abinader para incluir en el Presupuesto General del Estado del 2025 el aumento salarial de los médicos, será discutida desde este jueves en el Congreso Nacional. La comisión...

Putin confirma el ataque a Ucrania con u…

El presidente ruso, Vladímir Putin, confirmó este jueves que se produjo un ataque ruso a Ucrania con un misil balístico hipersónico sin carga nuclear. Se trata que de un misil de alcance medio Oreshnik, que...

El caos en vías del Distrito Nacional se…

Las violaciones a las leyes de tránsito e imprudencias volvieron a estar ayer a borbotones en las calles y avenidas de la capital, la mayor parte de esas provocadas por motociclistas. La obstrucción del paso...

Biden a contrarreloj: ¿qué quiere conseg…

A 60 días de dejar la Casa Blanca, el presidente de Estados Unidos, Joe Biden, trabaja a contrarreloj para preservar su legado antes de que el gobernante electo, Donald Trump...