
By Katy St. Clair. Bay City News
El rápido auge de la inteligencia artificial —también conocida como IA— ha llevado a escuelas, empresas y otras entidades a apresurarse para entender qué significa que una computadora haga en minutos lo que a un ser humano le tomaría horas, días o incluso semanas. También plantea muchas preguntas éticas, especialmente cuando se vuelve más fácil para un estudiante de secundaria hacer trampa pidiendo a la IA que escriba un ensayo o cuando se pueden crear imágenes falsas para engañar o manipular.
Debido a los retos que plantea esta tecnología, el gobernador Gavin Newsom ha firmado más de una docena de leyes este año relacionadas con la IA, convirtiendo a California en el principal regulador de esta tecnología en el país.
Una de estas leyes fue firmada el 10 de octubre y regula el uso de IA por parte de los departamentos de policía. Cuando organizaciones tan complejas como las fuerzas del orden elaboran reportes con IA generativa, cualquier error u omisión podría impactar directamente a sospechosos y acusados.
The Senate Bill 524, impulsada por el senador estatal Jesse Arreguin (D-Oakland), aclara cómo los agentes y departamentos pueden usar IA generativa para agilizar documentación oficial esencial.
Aunque muchos agentes afirman que aman su trabajo, pocos dicen lo mismo del papeleo que conlleva, por lo que varios departamentos han dado la bienvenida a esta tecnología. Por ejemplo, Axon —la empresa conocida por sus cámaras corporales utilizadas por la policía— está desarrollando software impulsado por IA generativa para elaborar reportes policiales.
Antes de la introducción de la SB 524, los departamentos no estaban obligados a revelar si un reporte había sido generado con IA ni qué versión del software se había utilizado.
A partir del 1 de enero de 2026, cualquier informe policial redactado total o parcialmente con IA deberá incluir esa información e incorporar la frase: “Este reporte fue redactado total o parcialmente utilizando inteligencia artificial.” El departamento también deberá revelar qué versión del software se usó. Además, deberán conservar el primer borrador durante el mismo tiempo que la versión final e identificar a la persona responsable del reporte.
La policía también estará obligada a verificar todo lo que la IA haya generado y a certificar que la información es verdadera y correcta mediante una firma.
Arreguin y los defensores de la reforma a la justicia penal expresaron preocupación por los errores críticos que los reportes generados con IA podrían introducir, afectando la defensa o el caso de una persona. Dado que la IA suele compararse con el funcionamiento del cerebro humano, cuando comete errores, estos se conocen como “alucinaciones”.
“No vamos a apostar con la libertad personal”, dijo Arreguin en su sitio web sobre la ley. “Las alucinaciones de la IA ocurren con frecuencia significativa, y lo que se incluye en un reporte policial puede influir en si el estado priva o no a alguien de su libertad.”
You may be interested in: California impone multa histórica por las invenciones de un abogado con ChatGPT