¡Impactante! La oscura cara de la IA: suicidios, explotación de muertes, deepfakes pornográficos y productos inseguros
2024-10-25
Autor: Lucia
El caso de Sewell Setzer, un adolescente de 14 años que se suicidó en febrero tras enamorarse de un personaje de inteligencia artificial en la plataforma Character.AI, ha conmocionado a la sociedad y suscitado una demanda contra la compañía por parte de su familia. Mientras tanto, la desinformación generada por la inteligencia artificial está causando estragos, desde alegaciones falsas sobre figuras públicas como Paul Mohney, que nunca entró en combate, hasta rumores inventados que afectan a la esposa del presidente de Ucrania, Olena Zelenska, quien supuestamente se habría comprado un lujoso Bugatti Turbillon.
La creación y difusión de noticias falsas está impulsada por el deseo de obtener beneficios económicos mediante el tráfico en páginas de obituarios, donde se elaboran biografías con datos falsos o manipulados. Chris Silver Smith, experto en mecanismos de búsqueda, explica que algunos utilizan la muerte de individuos para atraer tráfico web y aumentar ingresos publicitarios, lo que provoca un dolor adicional para las familias en duelo.
El uso de deepfakes también ha escalado, provocando una creciente preocupación por su impacto en la vida pública. Un reciente informe de AI Incidents señala que se han identificado más de 800 reclamaciones sobre abusos relacionados con la inteligencia artificial. Desde noticias falsas sobre intentos de asesinato hasta la creación de imágenes pornográficas falsas que afectan a mujeres políticas británicas, el potencial de estas tecnologías para influir en los procesos democráticos es alarmante. Una encuesta del European Tech Insights Report 2024 indica que el 31 % de los europeos cree que la IA ha influido en sus decisiones de voto.
Carlos Luca de Tena, director ejecutivo del Center for the Governance of Change, advierte que la preocupación sobre la influencia de la IA en las elecciones está en aumento. Aunque aún no se han encontrado pruebas concretas de alteraciones en los resultados, el temor a la desinformación y a los deepfakes sigue creciendo.
“La creación de imágenes falsas con IA es solo una parte del problema”, señala Cecilia Danesi, responsable del programa de Gobernanza ética de la IA. “La verdadera dificultad radica en identificar a los creadores detrás de estos contenidos perjudiciales.” Además, las plataformas digitales no pueden y no deben revisar cada publicación, ya que sería materialmente imposible.
Otro problema crítico es la discriminación algorítmica. Una denuncia en Escocia destaca cómo un sesgo en el sistema de prestaciones perjudica gravemente a las familias monoparentales, compuestas mayoritariamente por mujeres. Danesi enfatiza que, a pesar de la existencia de regulaciones para prevenir estos sesgos, la falta de un marco claro sobre responsabilidad civil deja a las víctimas sin compensación.
Por otra parte, un caso judicial reciente revela posibles defectos de programación en vehículos que podrían poner en peligro la seguridad de sus usuarios. Danesi señala que la Directiva de Productos Defectuosos no aborda adecuadamente los daños morales o la discriminación provocada por la tecnología.
Estos incidentes evidencian la urgente necesidad de un marco legal que aborde la responsabilidad civil en la era de la inteligencia artificial. Es imprescindible que se establezcan normas claras para proteger a los consumidores y fomentar la innovación. Iniciativas a nivel europeo ya están en marcha, incluyendo regulaciones sobre inteligencia artificial y reformas en la legislación de productos defectuosos, que buscan actualizar el concepto de producto para incluir software y archivos digitales.
Finalmente, la investigadora enfatiza que estas nuevas normativas deben centrarse en la protección del individuo, sin importar si el daño es causado por un producto físico o digital. Es un paso crucial para asegurar que la tecnología se utilice de manera ética y responsable, garantizando al mismo tiempo que los derechos de las personas sean respetados.