El uso de la inteligencia artificial (IA) se ha puesto de moda en los últimos años. La gente utiliza los ordenadores para tomar decisiones y resolver problemas, desde predecir dónde se cometerán delitos hasta asegurarse de que no se pierde el tren. Pero un área que aún no se ha explorado es si un ordenador podría utilizarse para decidir si alguien debe ir a la cárcel o salir de ella antes de tiempo. ¿Será posible en el futuro? ¿Y funcionaría?
Ambos escenarios ya existen. Por ejemplo, en 2018, el Departamento de Policía de la ciudad de Nueva York comenzó a utilizar un software predictivo que analizaba los datos de delincuencia y marcaba las áreas donde había una alta probabilidad de delitos futuros. Además, la policía de Chicago lleva varios años utilizando un algoritmo para identificar a las personas con probabilidades de cometer delitos violentos.
El software utilizado por estos departamentos de policía es privado y no está a disposición del público, por lo que es difícil determinar su eficacia en la prevención de la delincuencia en comparación con otras estrategias policiales más tradicionales, como el acercamiento a la comunidad o el seguimiento de las redes sociales en busca de indicios de posibles alborotadores.
En 2016, en Virginia se utilizó un programa informático llamado COMPAS para ayudar a decidir si se debía conceder a alguien la libertad anticipada.
COMPAS es un programa que predice la probabilidad de que alguien reincida. Se utiliza en muchos estados, como Virginia y Nueva York. Fue desarrollado por una empresa llamada Northpointe.
Un ser humano tendría que examinar toda la información sobre la persona y tomar una decisión sobre si es probable que reincida, pero esto puede ser difícil porque hay mucha información. Además del historial delictivo y las condenas anteriores, también hay que tener en cuenta la edad, el sexo y el origen étnico. Un programa informático puede procesar mucha más información que un ser humano porque no se cansa ni se aburre con tareas repetitivas. El programa informático puede tomar una decisión basándose en la información que se le ha dado, mientras que un ser humano puede tener que pedir más información o basarse en su propio juicio a la hora de tomar decisiones sobre si alguien debe volver a la cárcel o no.
Usted podría argumentar: "¿Pero por qué un ordenador sería menos parcial que un humano?". Cuando pensamos en cómo juzgan los delitos los humanos, hay dos tipos principales de sesgo que pueden darse. En primer lugar, las personas pueden tener más probabilidades de reincidir por pertenecer a determinados grupos raciales o étnicos que otras. En segundo lugar, pueden tener más probabilidades de reincidir debido a su sexo. Por ejemplo, los hombres cometen más delitos violentos que las mujeres (por término medio). Sin embargo, si sólo se detuviera a hombres por asesinato -y esto fuera así en todas las razas-, es probable que hubiera un sesgo inherente contra las mujeres que son detenidas por asesinato (aunque el departamento de policía no tuviera esa intención). Pero los ordenadores no ven la raza ni el sexo; sólo ven el perfil de ADN y los antecedentes penales. No tienen forma de saber a qué grupo perteneces a menos que se lo digas rellenando formularios en el juzgado o en la cárcel donde estés recluido durante el juicio.
El programa informático se entrena dándole información sobre lo que les ha ocurrido a delincuentes anteriores. El programa informático no sabe de qué grupo racial o étnico procede una persona, por lo que no puede estar sesgado por ello.
Por ejemplo, si han delinquido más hombres que mujeres, la probabilidad de que un hombre delinca es mayor que la de que lo haga una mujer.
Basándome en las pruebas, concluiría que los ordenadores pueden utilizarse para analizar datos sobre delitos, pero no para juzgarlos. Los ordenadores no tienen prejuicios raciales ni étnicos y pueden procesar la información con rapidez. Sin embargo, cuando se trata de juicio moral y toma de decisiones, los humanos son superiores en este sentido. Tienen la capacidad de pensar en el impacto de sus acciones en los demás y tomar decisiones basadas en este conocimiento. Esto no es algo que pueda hacer un ordenador porque no tiene emociones ni sentimientos como los humanos.
De nuestro debate de hoy se desprende claramente que los ordenadores pueden desempeñar un papel importante en el análisis de los datos sobre delincuencia; sin embargo, no pueden juzgar si alguien es culpable o inocente porque carecen de emociones o empatía hacia los pensamientos/sentimientos/necesidades de otros seres humanos, etcétera, como se ha debatido anteriormente en clase (y leyendo algunos libros en Internet).
El sistema judicial necesita una reforma urgente. Muchos de sus procesos pueden automatizarse, lo que los haría más eficientes y menos costosos. Sin embargo, hay varios obstáculos que superar antes de que podamos llegar a ese punto, incluidos los sesgos que puedan haber sido programados en la máquina. Dicho esto, creo que es hora de que empecemos a considerar cómo la inteligencia artificial podría mejorar nuestro sistema jurídico para servir mejor a la sociedad en su conjunto.
Criminalística, Criminología,
Medicina Legal y Forense,
e Investigación Criminal
No te quedes atrás.
¡Acelera tu carrera profesional!