Charles Brohiri, 29 ans, risque potentiellement une peine de prison après avoir reconnu 76 chefs d'accusation de fraude sur les trains Govia Thameslink, s'ajoutant à 36 condamnations antérieures, a-t-on appris jeudi au tribunal de Westminster Magistrates. Le total des amendes impayées et des frais de justice pourrait dépasser 18 000 £.
La juge de district Nina Tempia a averti Brohiri, de Hatfield dans le Hertfordshire, qu'une peine de prison était possible en raison du nombre considérable d'infractions. Brohiri, vêtu de noir, a répondu "Coupable" à chacun des 76 chefs d'accusation lus à haute voix pendant l'audience, selon les rapports de PA Media.
Le tribunal avait précédemment condamné Brohiri par contumace pour 36 chefs d'accusation distincts. Au cours de la procédure de jeudi, la juge Tempia a rejeté une requête de l'équipe juridique de Brohiri visant à annuler ces condamnations antérieures. La défense a fait valoir que les poursuites étaient illégales car elles n'avaient pas été engagées par une entité qualifiée.
L'affaire met en évidence les défis constants auxquels sont confrontés les opérateurs ferroviaires dans la lutte contre la fraude. Govia Thameslink Railway, comme de nombreux fournisseurs de transport, utilise une combinaison de contrôles manuels des billets et de systèmes automatisés pour détecter et dissuader les fraudeurs. Ces systèmes intègrent souvent l'analyse de données pour identifier les schémas de comportement de voyage suspects.
L'essor de l'intelligence artificielle (IA) offre des solutions potentielles pour une détection plus efficace de la fraude. L'analyse vidéo basée sur l'IA, par exemple, peut analyser les images de vidéosurveillance pour identifier les personnes qui évitent systématiquement les barrières de contrôle ou se livrent à d'autres activités suspectes. Les algorithmes d'apprentissage automatique peuvent également être entraînés à prédire les points chauds de la fraude et à optimiser le déploiement des agents de protection des revenus.
Cependant, l'utilisation de l'IA dans ce contexte soulève des considérations éthiques. Les préoccupations concernant la confidentialité et les biais potentiels dans les algorithmes doivent être prises en compte pour garantir l'équité et la transparence. Par exemple, la technologie de reconnaissance faciale, bien que potentiellement efficace pour identifier les récidivistes, pourrait avoir un impact disproportionné sur certains groupes démographiques.
Actuellement, Brohiri attend sa sentence. Le tribunal tiendra compte de la gravité et de la fréquence des infractions, ainsi que de toute circonstance atténuante, avant de déterminer la sanction appropriée. L'affaire sert de rappel des conséquences juridiques et financières de la fraude et du rôle croissant de la technologie dans la lutte contre ce problème.
Discussion
Join the conversation
Be the first to comment