En la época actual el tema no es sólo votar en un proceso democrático, sino cuán seguro es el sistema para votar y para el conteo real de los sufragios.

 

Esta fueron las grandes dudas acerca del triunfo electoral de Joe Biden en 2020 y volverá a ser la gran interrogante de decenas de millones de estadounidenses en noviembre.

 

Y aunque el gobierno y las entidades federales dijeron que no había pruebas de un fraude general, muchos se cuestionaron la verdadera efectividad y seguridad del sistema electoral en EEUU por videos que se hicieron virales en las redes sociales y porque el conteo de votos prácticamente se paralizó a partir de las 12 de la madrugada, cuando el entonces presidente Donald Trump marcaba ventaja a nivel nacional.

 

Dudas y tormenta

 

Después de esa hora, Biden recibía un tsunami de votos, mientras las cifras de Trump se quedaron casi paralizadas. Y eso no lo contaron ni los demócratas ni los republicanos, lo vieron millones de estadounidenses frente a las pantallas de sus televisores o en sus teléfonos celulares. Al siguiente día, Trump había «perdido» en varios estados importantes y luego vino el conteo de otros, que tampoco le favoreció.

 

La reacción airada del Presidente y de muchos republicanos fue inmediata.

 

La tormenta que desató esa situación, la vivieron los estadounidenses días y semanas después, cuyo punto máximo de tensión fue la multitudinaria protesta en el centro de la ciudad de Washington frente al Capitolio, en reclamo de derechos y transparencia, que la izquierda y la extrema izquierda se encargaron de demonizar y calificar de «asalto a la democracia«.

 

Meses después se demostraron múltiples irregularidades graves en algunos estados, que condujeron a medidas y cambios en el Departamento Electoral.

 

Ahora se suma un nuevo y no menos peligroso ingrediente al tema de la transparencia y la seguridad electoral en Estados Unidos y en el mundo: la Inteligencia Artificial.

 

Sin embargo, la tensión respecto a los llamados hackers o ciberpiratas se ha incrementado por años mediante acciones directas. Se ha demostrado que pueden distorsionar, interferir y dañar sistemas de software considerados extremadamente seguros.

 

Desde hospitales y grandes empresas o bancos hasta sistemas digitalizados de gobiernos estatales, locales y federal los hackers han sido hackeados en todas partes del mundo, y en Estados Unidos.

 

Los hackers

 

Por tales razones, la pregunta, entre muchas, es cuán confiables y seguros son los sistemas de votación actuales, a pesar de las supuestas garantías de las que hablan los gobiernos de turno en el poder.
Hace menos de un mes y mediante una operación internacional de inteligencia en la que participó EEUU, fue desmantelado el grupo de hackers «más dañino y criminal» del mundo: LockBit.

 

En noviembre de 2022, el Departamento de Justicia de Estados Unidos calificó el software malicioso de LockBit como el «más activo y destructivo en el mundo».

 

LockBit se centró en infraestructuras críticas y grandes grupos industriales dentro y fuera de EEUU.
De acuerdo con datos del Buró Federal de Investigaciones (FBI), el grupo realizó más de 1.700 ataques contra víctimas, entidades y negocios en Estados Unidos y en el mundo (Australia, Canadá y Nueva Zelanda, entre otros).

 

Sólo la variante conocida como Business Email Compromise (BEC) o Email Corporativo Comprometido ha generado pérdidas mundiales por más de 30.000 millones de dólares desde el 2016.

 

La noticia representó una supuesta «gran victoria» y en realidad lo fue, pero con un análisis a profundidad, el grupo fue desarticulado sólo después de ejecutar más de 1.700 ataques. Y como este grupo, quizás no de su magnitud, existen miles en todo el planeta; incluso protegidos por gobiernos enemigos de Estados Unidos como Rusia, Irán, China, Corea del Norte y otros.

 

Por eso, la guerra por el dominio de la tecnología se ha convertido en el mundo moderno en un arma esencial de PODER. Hoy, los avances tecnológicos van desde un simple equipo antiaéreo hasta un portaaviones y puesto de mando central.

 

La falsedades de la IA

 

Por un lado, el avance ha sido muy importante para diversos sectores: Ciencias, Aeroespacial, Automotriz, Industrial, Aviación, Militar, Robótica y para novedosos descubrimientos del mundo animal, la salud y la vida humana; pero por la otra parte se ha convertido en una enorme espada sobre la toda la humanidad.

 

Y entre tantos cuestionamientos surge la interrogante generalizada ¿ha valido la pena llegar a tan alto nivel de riesgos negativos e incertidumbre sobre el destino, la estabilidad y la supervivencia humana?.
Para muchos la respuesta es sí, para otros sería NO.

 

Y no se trata de negar el desarrollo ni el avance de la ciencia y la tecnología, sino la capacidad del ser humano para controlar ese auge vertiginoso y acelerado.

 

En los últimos 20 años el despegue de la tecnología ha sido brutal, muy por encima de los medios humanos de control en el planeta.

 

Las actuales operaciones militares con drones (con una exactitud quirúrgica) simbolizan el avance de lo que está por venir, en algunos casos para bien, pero en muchos otros para mal, y en contra de la estabilidad, las libertades individuales y los derechos fundamentales del ser humano, gran parte de ellos concentrados en un término que peligra cada vez más: la DEMOCRACIA o la presunta DEMOCRACIA.

 

Una ola de falsificaciones de Inteligencia Artificial generativa vinculadas a elecciones en Europa y Asia ha recorrido las redes sociales durante meses y sirve como advertencia para 50 naciones que realizan elecciones; entre ellas, Estados Unidos.

 

“No necesitas mirar muy lejos para ver que algunas personas están claramente confundidas sobre si algo es real o no”, advirtió Henry Ajder, un experto destacado en IA generativa con sede en Cambridge, Inglaterra.

 

La pregunta ya no es si los «deepfakes» (falsedades profundas) de IA podrían afectar las elecciones en un país, sino qué tan influyentes serán, destacó Ajder, quien dirige una firma consultora llamada Latent Space Advisory.

 

Esto marca un salto importante respecto a años atrás, cuando la creación de fotografías, videos o clips de audio falsos requería dinero, equipos de personas con tiempo y habilidades técnicas.

 

Ahora, con servicios de inteligencia artificial (IA) generativa gratuitos y de bajo costo de empresas como Google y OpenAI, cualquier persona puede crear “deepfakes” —una falsificación realista en foto, video o audio digital— de alta calidad con una instrucción sencilla a partir de un texto.

 

A medida que la carrera presidencial de Estados Unidos se intensifica, el director del FBI, Christopher Wray, advirtió sobre la creciente amenaza y declaró que la IA generativa facilita que “adversarios extranjeros se involucren en influencias malignas”. Pero no sólo adversarios extranjeros, sino personas, grupos, y organizaciones DENTRO de EEUU.

 

Con un «deepfake» o falsedad, la imagen de un candidato se puede distorsionar o suavizar.
Los votantes pueden encontrarse atraídos o alejados de los candidatos o incluso evitar las urnas por completo. Pero quizá la mayor amenaza para la democracia, dicen los expertos, es que una oleada de «deepfakes» podría erosionar de forma significativa la confianza del público en casi todo lo que ve y escucha.

 

Algunos ejemplos recientes de deepfakes hechos a partir de inteligencia artificial incluyen:

 

  • Un video de la presidenta prooccidental de Moldavia dando su apoyo a un partido político amigo de Rusia.
  • Audios del líder del partido liberal de Eslovaquia hablando de manipular los votos y aumentar el precio de la cerveza.
  • Un video de una legisladora de la oposición en Bangladesh, una nación de mayoría musulmana conservadora, en bikini.
La falta de confianza se dispara
Lo más preocupante es la incapacidad actual de los gobiernos y los servicios de inteligencia para detectar el origen del (o de de los) ataques, descubrir quién o quiénes lo hicieron y reaccionar con agilidad mediante una respuesta contundente.

 

El despertar fugaz de la tecnología ha disparado la falta de confianza en las instituciones y gobiernos, en la información que emiten y en la garantía de lo que prometen, cuando saben que son escasas.

 

La novedad y sofisticación de la tecnología hace que sea difícil rastrear quién está detrás de los «deepfakes». Los expertos afirman que los gobiernos y las empresas todavía no son capaces de detener el diluvio ni se mueven lo suficientemente rápido para resolver el problema.

 

A medida que la tecnología mejora, “será difícil encontrar respuestas definitivas sobre gran parte del contenido falso”, alerta Ajder.

 

Algunos «deepfakes» tienen como objetivo sembrar dudas sobre la lealtad de los candidatos.

 

En Moldavia, un país de Europa del este que hace frontera con Ucrania, la presidenta prooccidental Maia Sandu ha sido un objetivo frecuente. Un deepfake que circuló poco antes de las elecciones locales la mostraba respaldando a un partido amigo de Rusia y anunciando planes de dimitir.

 

Los funcionarios de Moldavia creen que el gobierno ruso está detrás.

 

China también ha sido acusada de utilizar la IA generativa como arma con fines políticos.

 

En Taiwán, una isla autónoma que China reclama como propia, un deepfake generado con IA llamó la atención a principios de este año al provocar preocupaciones sobre la interferencia de Estados Unidos en la política local.

 

El clip falso que circula en TikTok muestra al legislador estadounidense Rob Wittman, vicepresidente de la Comisión de Servicios Armados de la Cámara de Representantes, prometiendo un mayor apoyo militar de su país a Taiwán si los candidatos del partido en el poder eran elegidos en enero.

 

Wittman culpó al Partido Comunista Chino de intentar inmiscuirse en la política taiwanesa y dijo que utiliza TikTok —una empresa de propiedad china— para difundir “propaganda”.

 

Los medios de prensa se refieren al asunto desde la perspectiva exterior, pero dentro de cada país determinado grupo, organización y partido político tienen las condiciones para hacer los mismo crear el mismo daño; incluso el propio gobierno en el poder.

 

Los expertos manifiestan que los «deepfakes» de audio son muy difíciles de verificar porque a diferencia de las fotos y los videos, carecen de signos reveladores de contenido manipulado.

 

En Eslovaquia, otro país ensombrecido por la influencia rusa, audios que asemejaban la voz del jefe del partido liberal fueron compartidos ampliamente en redes sociales pocos días antes de las elecciones parlamentarias.
Los clips supuestamente lo captaron hablando de aumentar el precio de la cerveza y manipular el voto.

 

Resulta muy comprensible que los votantes caigan en el engaño, indica Ajder, porque estamos “mucho más acostumbrados a juzgar con los ojos que con los oídos”.

 

En Estados Unidos, llamadas automáticas que pretendían ser del presidente Joe Biden instaron a los votantes de Nueva Hampshire a abstenerse de votar en las elecciones primarias de enero.

 

Las llamadas fueron rastreadas después hasta un consultor político que dijo que buscaba dar a conocer los peligros de los deepfakes de la Inteligencia Artificial generativa.

 

¿Alguien cree que esto no pueda ocurrir antes y durante las elecciones presidenciales del 5 de noviembre en EEUU?

 

En el mundo moderno la vulnerabilidad se ha hecho un problema cotidiano, a pesar de que los intereses políticos y financieros de grupos, élites o partidos lo justiquen o lo edulcoren para aparentar la misma seguridad que en décadas anteriores.
Lo otro es la REALIDAD y las posibilidades que se encuentran hoy al alcance de todos, lo que convierte a las instituciones y procesos en cada vez menos creíbles para la población.

 

En países más pobres, donde la cultura e información sobre los medios es deficiente, hasta las falsificaciones con IA de baja calidad pueden ser efectivas.

 

Los ataques contra la democracia

 

Cada vez más se pone de moda que las campañas políticas utilicen IA generativa para reafirmar la imagen de sus candidatos.

 

En Indonesia, el equipo que dirigió la campaña presidencial de Prabowo Subianto implementó una sencilla aplicación móvil para construir una conexión más profunda con sus seguidores en la vasta nación insular.

 

La aplicación permitió a los votantes subir una foto y crear imágenes generadas por IA de ellos mismos con Subianto.

 

A medida que se multiplican los tipos de falsificaciones de IA generativa, las autoridades de todo el mundo se apresuran para idear salvaguardas, pero desfasadas de la celeridad de los avances tecnológicos.

 

Las grandes empresas de tecnología también se prestan de forma muy cuestionable a intereses políticos y manipulan y controlan de múltiples formas al individuo, desde el domino de sus gustos hasta el alcance de lo que publican en sus supuestos perfiles «públicos».

 

El mejor ejemplo fue lo ocurrido después de los sucesos del 6 de enero en Washington.

 

Sin ninguna prueba fehaciente de absolutamente nada y sólo con la percepción generalizada y alimentada por los grandes medios de izquierda, varias plataformas como Facebook, Twitter, Instagram y YouTube junto a Google prohibieron las cuentas del presidente de Estados Unidos Donald J. Trump, el acto más antidemocrático, autoritario y aterrador del poder de estas plataformas y su influencia sin límites en la política y en la sociedad en general; sin una sola ley que condene sus actos y menos que las obliguen a responder ante la llamada Justicia.

 

Cerraron, además, decenas de miles de cuentas de conservadores y seguidores de Trump, entre ellos legisladores del Congreso federal. Todo lo que olía a apoyo directo al Presidente de Estados Unidos fue considerado enemigo tajante y era eliminado al instante al mismo estilo de las dictaduras en el mundo.

 

Como respuesta a lo que observaron miles de millones de personas en el mundo, el multimillonario Elon Musk dejó su tendencia liberal y se inclinó en defensa de los conservadores.
Y compró por más de 40,000 millones de dólares la antigua red social Twitter, la primera en prohibir al Presidente y demostrar abiertamente su parcialización política con la izquierda radical.
Hoy, en manos de Musk, se denomina X.

 

Musk dijo que adquiría esa red para que los estadounidenses tuvieran un lugar de libertad de expresión real y donde se respetaran sus derechos a opinar libremente.

 

La única diferencia ahora es que X y Telegran surgieron como competencia de Meta, la matriz de Facebook, instagram, WhatsApp y Threads

 

Ahora con ciertas «regulaciones» y competencia, Meta, Google, YouTube y otras siguen su camino hacia las elecciones presidenciales de este año, con un poder similar e impunidad legal que en el 2021.

 

La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir información falsa,
desinformación o “manipulación electoral”, pero eso es demasiado subjetivo y preliminar para cumplirse.

 

Lo mismo han pedido representantes y senadores del Congreso de EEUU a Meta y a otras tecnológicas, pero esas supuestas restricciones no constituyen por el momento algo realmente efectivo.

 

El pacto y las promesas

 

Las empresas tecnológicas más grandes del mundo firmaron — de manera voluntaria— un pacto para evitar que las herramientas de IA generativa sean disruptivas para las elecciones.

 

Meta ha dicho que comenzará a etiquetar los «deepfakes» que aparecen en sus plataformas. Lo importante es que los etiquete todos, desde la izquierda hasta la derecha y no los que provienen sólo de la última tendencia política.

 

Sin embargo, los expertos afirman que los «deepfakes» son difíciles de controlar, mucho más en aplicaciones como el servicio de chat Telegram, que no firmó el pacto voluntario y utiliza chats encriptados que pueden ser difíciles de monitorear.

 

A los especialistas les preocupa además que los esfuerzos por frenar los «deepfakes» tengan consecuencias indeseadas o nefastas para la libertad de expresión y la democracia, como ocurrió en el 2020 y 2021 con las acciones controversiales de Mark Zuckerberg y Jack Dorsey.

 

Los gobiernos o las empresas podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político del Centro para la Democracia y la Tecnología, en Washington.

 

Los principales servicios de IA generativa tienen reglas para «limitar» la desinformación política. Pero los conocedores del tema consideran que todavía es demasiado fácil burlar las restricciones de las plataformas o utilizar servicios alternativos que no tienen las mismas salvaguardas.

 

Incluso sin malas intenciones, el creciente uso de la IA generativa es problemático.

 

Buena parte de los chatbots populares impulsados por Inteligencia Artificial aún escupen información falsa y engañosa que amenaza con privar de su derecho al voto a los electores.

 

Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimientos reales que los muestran de forma desfavorable fueron fabricados con IA generativa.

 

“Un mundo en el que todo es sospechoso —y en el que todos pueden elegir en qué creen— es también un mundo que supone un verdadero desafío para una democracia floreciente”, dijo Lisa Reppell, investigadora de la Fundación Internacional para Sistemas Electorales, en Arlington, Virginia.

 

Por esas razones, la tecnología en sentido general y la incapacidad de garantizar al 100% la seguridad cibernética en cualquier parte del planeta, genera mucha desconfianza en lo que pueda declarar el gobierno de Joe Biden y otros en el mundo sobre las «garantías electorales» y la «confiabilidad» del sistema electoral, dentro y fuera de Estados Unidos.