CHICAGO (AP) — En más de 140 ciudades de Estados Unidos, el algoritmo de Inteligencia Artificial (IA) y la intrincada red de micrófonos de ShotSpotter evalúan cientos de miles de sonidos al año para determinar si son disparos, generando datos que ahora se usan en casos penales en todo el país.
PUBLICIDAD
Sin embargo, un documento confidencial de ShotSpotter obtenido por The Associated Press describe algo que la compañía no siempre publicita sobre su “sistema de vigilancia de precisión”: que sus empleados pueden anular y revertir rápidamente las determinaciones del algoritmo y que cuentan con extensa discreción para decidir si un sonido es un disparo, fuegos artificiales, truenos u otra cosa.
Tales reversiones ocurren en el 10% de las veces según un recuento de la compañía de 2021, lo que según expertos podría ocasionar subjetividad en decisiones cada vez más relevantes y entrar en conflicto con una de las razones por las que la IA se usa en herramientas de aplicación de la ley para disminuir el rol de los excesivamente falibles seres humanos.
“He escuchado muchas grabaciones de disparos y no es fácil de hacer”, aseguró Robert Maher, un experto a nivel nacional en detección de disparos, de la Universidad Estatal de Montana, quien revisó el documento de ShotSpotter. “En ocasiones es obviamente un disparo. A veces es sólo un ping, ping, ping… y uno se puede convencer de que se trata de un disparo”.
Marcado como “ADVERTENCIA: CONFIDENCIAL”, el documento de operaciones de 19 páginas explica la manera en que los empleados en los centros de revisión de ShotSpotter deben escuchar las grabaciones y evaluar la conclusión del algoritmo de posibles disparos con base en una serie de factores que pueden requerir decisiones de juicio, incluso si el sonido cuenta con la cadencia de los disparos, si el patrón de audio luce como “un árbol de Navidad de lado” y si hay “100% de certeza de disparos en la mente del revisor”.
En un comunicado a la AP, ShotSpotter indicó que el papel de los seres humanos es de una verificación positiva del algoritmo y que el documento en “lenguaje sencillo” refleja los elevados estándares de precisión que sus revisores deben cumplir.
“Nuestros datos, basados en la revisión de millones de incidentes, demuestran que la revisión humana agrega valor, precisión y congruencia a un proceso de revisión del que dependen nuestros clientes y muchas víctimas de disparos”, afirmó Tom Chittum, vicepresidente de análisis y servicios forenses de la compañía.
PUBLICIDAD
Chittum añadió que expertos de la compañía han testificado en 250 casos judiciales en 22 estados y que su “tasa de precisión agregada de 97% para las detecciones en tiempo real para la totalidad de sus clientes” ha sido verificada por una firma de análisis contratada por la compañía.
Otra parte del documento subraya el énfasis desde hace mucho tiempo de ShotSpotter en la velocidad y la capacidad de decisión, su compromiso de clasificar los sonidos en menos de un minuto y alertar a la policía local y a los operadores del servicio de urgencias 911 para que puedan enviar agentes al lugar.
Titulado “Adoptando un estado de ánimo de Nueva York”, se refiere a la petición que el Departamento de Policía de Nueva York hizo a ShotSpotter para evitar publicar alertas de sonidos como “disparos probables” y sólo clasificaciones definitivas como disparos o no disparos.
“Resultado final: Entrena al revisor para que sea decisivo y preciso en su clasificación e intenta evitar una publicación dudosa”, se lee en el documento.
Los expertos afirman que tal orientación bajo la presión del tiempo podría alentar a los revisores de ShotSpotter a equivocarse a favor de categorizar un sonido como un disparo, incluso si la evidencia no resulta contundente, lo que podría aumentar la cantidad de falsos positivos.
“No se le está dando mucho tiempo a los seres humanos”, sostuvo Geoffrey Morrison, un científico de reconocimiento de voz en Gran Bretaña que se especializa en procesos forenses. “Y cuando las personas están bajo enorme presión, la posibilidad de cometer errores es mayor”.
ShotSpotter indica que publicó 291.726 alertas de disparos a sus clientes en 2021. Ese mismo año, en comentarios a la AP agregados a un artículo previo, ShotSpotter aseveró que más del 90% de las veces sus revisores humanos estuvieron de acuerdo con la clasificación de las máquinas, pero la compañía invirtió en su equipo de revisores “por el 10% de las veces en que no están de acuerdo con la máquina”. ShotSpotter no respondió a las preguntas sobre si esa proporción sigue siendo cierta.
El documento de operaciones de ShotSpotter, que la compañía argumentó en las cortes durante más de un año que era un secreto comercial, fue liberado recientemente de una orden de protección en un caso judicial de Chicago en que la policía y los fiscales utilizaron datos de ShotSpotter como evidencia para acusar de asesinato a un abuelo de Chicago en 2020 por supuestamente dispararle a un hombre dentro de su automóvil. Michael Williams pasó casi un año en la cárcel antes que un juez desestimó el caso por no contar con pruebas suficientes.
La evidencia en las audiencias previas al juicio de Williams mostró que el algoritmo de ShotSpotter inicialmente clasificó un ruido captado por micrófonos como un petardo, haciendo esa determinación con un 98% de confianza. Sin embargo, un revisor de ShotSpotter que evaluó el sonido lo volvió a etiquetar rápidamente como un disparo.
La Oficina de la Defensoría Pública del condado de Cook señala que el documento de operaciones fue el único documento que ShotSpotter envió en respuesta a múltiples citaciones para pautas, manuales u otros protocolos científicos. La compañía, que cotiza en bolsa, se ha resistido desde hace tiempo a los exhortos a abrir sus operaciones al escrutinio científico independiente.
ShotSpotter, con sede en Fremont, California, reconoció a la AP que cuenta con otros “materiales extensos de capacitación y operativos”, pero los considera “confidenciales y secretos comerciales”.
ShotSpotter instaló sus primeros sensores en Redwood City, California, en 1996, y durante años dependió únicamente en los operadores locales del 911 y la policía para revisar cada posible disparo hasta que agregó sus propios revisores humanos en 2011.
Paul Greene, un empleado de ShotSpotter que testifica con frecuencia sobre el sistema, explicó en una audiencia probatoria de 2013 que los revisores del personal abordaron problemas con un sistema que “se sabe que de vez en cuando da falsos positivos” porque “no tiene oído para escuchar”.
“La clasificación es el elemento más difícil del proceso”, declaró Greene en la audiencia. “Simplemente porque no tenemos... control sobre el entorno en que se hacen los disparos”.
Greene agregó que a la compañía le gusta contratar exmilitares y expolicías familiarizados con las armas de fuego, así como a músicos porque “tienden a tener un oído más desarrollado”. Su capacitación incluye escuchar cientos de muestras de audio de disparos e incluso visitas a campos de tiro para familiarizarse con las características de los disparos.
Conforme las ciudades han sopesado la promesa del sistema frente a su precio —que puede alcanzar los 95.000 dólares por milla cuadrada por año—, los empleados de la compañía han explicado en detalle cómo sus sensores acústicos en los postes de servicios públicos y alumbrado captan fuertes estallidos, explosiones o golpes y posteriormente filtra los sonidos a través de un algoritmo que clasifica automáticamente si son disparos o algo más.
Pero hasta ahora poco se sabía sobre el siguiente paso: Cómo los revisores humanos de ShotSpotter en Washington, D.C. y en el área de la Bahía de San Francisco deciden qué es un disparo frente a cualquier otro ruido, las 24 horas al día.
“Es importante escuchar las descargas de audio”, se lee en el documento escrito por David Valdez, expolicía y supervisor ahora retirado de uno de los centros de revisión de ShotSpotter. “A veces el audio es tan parecido a un disparo que puede anular todas las otras características”.
___
Burke reportó desde San Francisco.
____
Garance Burke está en Twitter como @garanceburke
Michael Tarm está en Twitter como @mtarm