A los estadounidenses les preocupa que las herramientas de Inteligencia Artificial empeoren el odio, acoso y extremismo que, de por sí, ya son altos, señaló un estudio realizado por el Centro de Tecnología y Sociedad de la Liga Antidifamación ‒ADL, por sus siglas en inglés‒.
De acuerdo a un breve estudio realizado por la organización sin fines de lucro, si bien algunas personas tienen esperanzas con respecto a algunos de los usos potenciales de las herramientas de IA generativa, existe una preocupación abrumadora de que estos avances empeoren el odio y el acoso en la sociedad.
En ese sentido, precisó que a la mayoría sustancial de los estadounidenses les preocupa que las personas utilicen las herramientas para actividades delictivas ‒84 por ciento‒, difundir información falsa o engañosa ‒84 por ciento‒), radicalizar a las personas hacia el extremismo ‒77 por ciento‒, e incitar al odio y al acoso ‒75 por ciento‒.
Asimismo, destaca que 74 por ciento de las personas piensa que las herramientas producirán contenido sesgado, mientras que otro 70 por ciento considera que las herramientas empeorarán el extremismo, el odio y/o el antisemitismo en Estados Unidos.
El estudio que encuestó a mil siete personas en todo el país, entre el 1 y el 5 de mayo de este año, reveló que los estadounidenses apoyaron abrumadoramente las intervenciones para mitigar los riesgos que plantea la IA generativa.
En cuanto a lo que deberían hacer las empresas que crean herramientas IAG, 89 por ciento de los encuestados cree que las empresas deberían tomar medidas para evitar que sus herramientas creen contenido de odio y no permitir que los usuarios generen imágenes antisemitas o extremistas.
En términos de acción gubernamental o legal, 87 por ciento de los encuestados apoyó los esfuerzos del Congreso para exigir transparencia y privacidad, en tanto que 81 por ciento de los que realizaron la encuesta, cree que los creadores de herramientas GAI deben ser considerados responsables si sus herramientas se utilizan para el odio, el acoso o el extremismo ilegales.
Finalmente, 85 por ciento apoyó que la sociedad civil tenga la capacidad de auditar herramientas de IA generativa.
Ante ello, la organización precisó que, si bien la conversación puede y debe continuar sobre los posibles beneficios de IAG, todas las partes interesadas ‒gobierno, empresas de tecnología, usuarios de redes sociales y organizaciones de la sociedad civil‒ deben colocar dichos riesgos al frente, para garantizar estas nuevas capacidades en beneficio de la sociedad.
This publication was supported in whole or part by funding provided by the State of California, administered by the California State Library.
Te puede interesar: La inteligencia artificial podría ser el futuro de la humanidad