A los estadounidenses les preocupa que las herramientas de Inteligencia Artificial empeoren el odio, acoso y extremismo que, de por s ya son altos, selun estudio realizado por el Centro de Tecnolog y Sociedad de la Liga Antidifamaci ?ADL, por sus siglas en ingl ?.
De acuerdo a un breve estudio realizado por la organizaci sin fines de lucro, si bien algunas personas tienen esperanzas con respecto a algunos de los usos potenciales de las herramientas de IA generativa, existe una preocupaci abrumadora de que estos avances empeoren el odio y el acoso en la sociedad.?
En ese sentido, precisque a la mayor sustancial de los estadounidenses les preocupa que las personas utilicen las herramientas para actividades delictivas ?84 por ciento?, difundir informaci falsa o engasa ?84 por ciento?), radicalizar a las personas hacia el extremismo ?77 por ciento?, e incitar al odio y al acoso ?75 por ciento?.
Asimismo, destaca que 74 por ciento de las personas piensa que las herramientas producir contenido sesgado, mientras que otro 70 por ciento considera que las herramientas empeorar el extremismo, el odio y/o el antisemitismo en Estados Unidos.
El estudio que encuesta mil siete personas en todo el pa , entre el 1 y el 5 de mayo de este a, revelque los estadounidenses apoyaron abrumadoramente las intervenciones para mitigar los riesgos que plantea la IA generativa.
En cuanto a lo que deber n hacer las empresas que crean herramientas IAG, 89 por ciento de los encuestados cree que las empresas deber n tomar medidas para evitar que sus herramientas creen contenido de odio y no permitir que los usuarios generen imenes antisemitas o extremistas.
En t minos de acci gubernamental o legal, 87 por ciento de los encuestados apoylos esfuerzos del Congreso para exigir transparencia y privacidad, en tanto que 81 por ciento de los que realizaron la encuesta, cree que los creadores de herramientas GAI deben ser considerados responsables si sus herramientas se utilizan para el odio, el acoso o el extremismo ilegales.
Finalmente, 85 por ciento apoyque la sociedad civil tenga la capacidad de auditar herramientas de IA generativa.
Ante ello, la organizaci precisque, si bien la conversaci puede y debe continuar sobre los posibles beneficios de IAG, todas las partes interesadas ?gobierno, empresas de tecnolog , usuarios de redes sociales y organizaciones de la sociedad civil? deben colocar dichos riesgos al frente, para garantizar estas nuevas capacidades en beneficio de la sociedad. ?
This publication was supported in whole or part by funding provided by the State of California, administered by the