A pocos días de las elecciones presidenciales en Estados Unidos, funcionarios gubernamentales han emitido una advertencia clara: los votantes no deben depender de los chatbots de inteligencia artificial (IA) para obtener información relacionada con el proceso electoral.
La advertencia se dio el viernes a través de un comunicado de la fiscal general de Nueva York, Letitia James, quien señaló que herramientas como los chatbots frecuentemente proporcionan información incorrecta en respuesta a preguntas sobre votación.
La oficina de James alertó que los votantes que dependan de estas herramientas corren el riesgo de perder su oportunidad de votar o de recibir datos inexactos, según informó CNBC.
El aviso de la fiscalía general de Nueva Yorkllega en un contexto de gran preocupación por el aumento de desinformación impulsada por contenidos generados por inteligencia automatizada, en especial durante este año electoral. Según un informe de Clarity, una firma especializada en aprendizaje automático, la cantidad de contenido manipulado mediante “deepfakes” ha aumentado un 900% en el último año, con algunos de estos videos relacionados con intentos de desestabilización orquestados desde Rusia, reportaron autoridades de inteligencia de Estados Unidos.
La tecnología computacional ha facilitado la creación de imágenes, videos y texto convincentes que, si no se verifican adecuadamente, pueden confundirse con información legítima y alterar la percepción pública en el contexto electoral, apuntaron los expertos.
Alexandra Reeve Givens, directora ejecutiva delCentro para la Democracia y la Tecnología(CDT, por sus siglas en inglés), enfatizó que los votantes no deberían recurrir a chatbots de inteligencia artificial para obtener información sobre la votación o las elecciones, debido a que existen preocupaciones sobre la precisión y el contenido de las respuestas.
En un estudio realizado en julio por el CDT, el centro concluyó que, de 77 preguntas relacionadas con elecciones planteadas a varios chatbots, más de un tercio de las respuestas contenían errores o información falsa. Dicho estudio incluyó pruebas a chatbots de empresas tecnológicas como Google, OpenAI, Anthropic y Meta, quienes proporcionaron respuestas inconsistentes o incorrectas sobre temas como ubicaciones de votación y accesibilidad en los centros electorales.
Ante esta situación, varias empresas responsables de desarrollar chatbots de inteligencia automatizada han publicado medidas para evitar que sus herramientas se conviertan en fuentes de desinformación electoral. Un portavoz de Anthropic, compañía creadora del chatbot Claude, aseguró que la empresa anima a los usuarios a consultar fuentes oficiales de información electoral, dado que su modelo computacional no se entrena con suficiente frecuencia para reflejar actualizaciones en tiempo real de elecciones específicas. Por su parte, OpenAI, creador deChatGPT, anunció que, a partir del 5 de noviembre, su chatbot incluirá un aviso dirigido a los usuarios para que consulten fuentes verificadas como The Associated Press o sus juntas electorales locales para obtener información actualizada y precisa sobre resultados electorales.
Las preocupaciones sobre el uso de tecnología automatizada en contextos electorales no se limitan a Estados Unidos. En 2024, más de 40 países celebran elecciones de relevancia, afectando a un estimado de 4,000 millones de personas en todo el mundo, reportó CNBC. La expansión de las capacidades generativas ha permitido la rápida creación de textos, imágenes y videos personalizados, lo que plantea riesgos para la integridad de los procesos democráticos, especialmente en sociedades con acceso limitado a fuentes de información verificadas. En este contexto, varios gobiernos han tomado medidas preventivas ante el posible impacto de las tecnologías automatizadas en sus procesos electorales.
La intervención de la fiscalía de Nueva York coincide con una serie de medidas legislativas en Estados Unidos dirigidas a controlar la diseminación de desinformación mediante herramientas computacionales. Según Voting Rights Lab, organización dedicada al monitoreo de cambios en políticas electorales, 43 legislaturas estatales han propuesto hasta el momento 129 proyectos de ley que contienen provisiones para regular el uso de inteligencia sintética en la producción de información electoral falsa.
Estas iniciativas buscan establecer salvaguardas para que la información errónea generada por tecnología avanzada no se convierta en un obstáculo para los votantes, quienes, de no contar con información precisa, podrían perder la oportunidad de participar en los comicios, detalló Voting Rights Lab.
OpenAI, en un informe de 54 páginas publicado el mes pasado, reveló que ha interrumpido más de 20 operaciones y redes engañosas en todo el mundo que intentaban utilizar sus modelos automatizados para crear desinformación. Estas actividades incluyeron desde artículos en sitios web generados por tecnología computacional hasta publicaciones en redes sociales hechas por cuentas falsas, según detalló la empresa. No obstante, OpenAI aclaró que ninguna de estas operaciones relacionadas con las elecciones obtuvo un nivel de compromiso “viral” significativo, lo que sugiere que la propagación de contenido electoral engañoso creado mediante sus modelos no alcanzó una audiencia masiva, como detalla el informe de la compañía.
Por su parte, Google y Meta, que también desarrollan y operan plataformas de inteligencia automatizada, se han comprometido a mejorar las políticas de transparencia en torno al uso de capacidades avanzadas en campañas políticas, según los reportes de CNBC. Estas empresas han implementado diversas actualizaciones en sus políticas de uso para reducir el riesgo de que sus plataformas sean utilizadas para propagar desinformación, incluyendo restricciones sobre la creación y distribución de contenido político generado por tecnología sintética sin un etiquetado adecuado.
De cara a la elección presidencial, la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) también está evaluando políticas adicionales que aborden los desafíos de la desinformación generada por inteligencia automatizada. Estas medidas son vistas como un esfuerzo preventivo en medio de un creciente escepticismo hacia las herramientas computacionales en contextos electorales, como lo demuestra el estudio del CDT. Las autoridades esperan que el acceso a información oficial y verificada disminuya los riesgos de desinformación en las próximas elecciones.
Con información de Infobae