El 15 de enero de 2024, OpenAI decidió de forma proactiva dar forma a su estrategia para garantizar el uso responsable y ético de sus tecnologías de IA, como ChatGPT y DALL E. Esta estrategia se centra en varias áreas clave:
- Prevención de abusos
- Perfeccionamiento de la política de uso
- Mecanismo de notificación
- Transparencia en los contenidos generados por IA
- Integración de la información en tiempo real
Un aspecto clave de su estrategia es la colaboración con la Asociación National Association of Secretaries of State (NASS) para dirigir a los usuarios a información fiable sobre las votaciones, ejemplificada al guiar a los usuarios estadounidenses a CanIVote.org para consultas relacionadas con las elecciones.
OpenAI hace hincapié en perfeccionar continuamente sus políticas y herramientas basándose en los comentarios de los usuarios y en la colaboración de expertos, subrayando su compromiso de apoyar el proceso democrático mediante un uso responsable de la IA.
El objetivo era exclusivamente el uso seguro y responsable de las herramientas de IA durante las elecciones. Esto implica esfuerzos para evitar abusos como la creación de deepfakes engañosos, operaciones de influencia o chatbots que suplanten la identidad de candidatos. Emplean equipos rojos, recaban comentarios de usuarios y socios externos e implementan mitigaciones de seguridad para minimizar los daños potenciales. OpenAI perfecciona continuamente sus herramientas de IA para mejorar la precisión de los hechos y reducir los sesgos.
La organización actualiza periódicamente sus políticas de uso de ChatGPT y sus API para adaptarse a la forma en que las personas utilizan o pueden utilizar indebidamente estas tecnologías. Esto incluye restricciones sobre el uso de sus herramientas para campañas políticas, grupos de presión o la creación de chatbots que suplanten la identidad de personas o instituciones reales. También prohíben las aplicaciones que desalienten la participación democrática, como tergiversar los procesos de votación.
Los nuevos modelos de GPT incorporan una función que permite a los usuarios denunciar posibles infracciones, lo que mejora la capacidad de vigilar y abordar los usos indebidos.
Además, están desarrollando una herramienta clasificadora de procedencia para detectar imágenes generadas por DALL E, incluso con modificaciones comunes. ChatGPT se integra con los informes de noticias en tiempo real para proporcionar a los usuarios información oportuna y precisa, incluidas las atribuciones de las fuentes. Esta iniciativa pretende ayudar a los votantes a evaluar mejor la información y a tomar decisiones con conocimiento de causa.
La conclusión es que OpenAI está mejorando la transparencia en torno al origen de las imágenes generadas por IA. Están implementando credenciales digitales para las imágenes producidas por DALL-E 3 para codificar criptográficamente la procedencia del contenido.