L'Office of Rail and Road (ORR), l'organisme de réglementation ferroviaire, a admis qu'il lui manquait des informations cruciales lorsqu'il a décidé de ne pas autoriser les passagers à bord d'un train aux heures de pointe entre Manchester et Londres. Cette décision aurait entraîné l'exploitation quotidienne d'un "train fantôme" pendant plusieurs mois.
John Larkinson, directeur général de l'ORR, a déclaré que l'organisation ne disposait pas d'"éléments essentiels" lorsqu'elle a pris la décision initiale. Plus précisément, l'ORR ignorait que le train serait "entièrement équipé en personnel", qu'il partirait de la gare de Manchester Piccadilly au lieu d'un dépôt, et que son arrivée à la gare d'Euston était nécessaire pour qu'il devienne le service de 09h30 GMT à destination de Glasgow. "Les informations qui nous sont parvenues par la suite ont montré que notre hypothèse était incorrecte", a déclaré M. Larkinson.
L'ORR a été vivement critiqué en novembre suite à sa décision d'autoriser le train populaire de 07h00 à circuler à vide, avec uniquement du personnel à bord. La décision, qui devait entrer en vigueur à la mi-décembre, a été rapidement annulée en raison des réactions négatives. L'ORR avait initialement justifié sa position en affirmant que le service devait circuler sans passagers afin de créer un "coupe-feu", un écart planifié dans l'horaire.
Cet incident met en évidence les défis de la gestion de systèmes complexes, où des données incomplètes peuvent conduire à une prise de décision erronée. La dépendance de l'ORR à l'égard de données potentiellement incomplètes souligne l'importance d'une collecte et d'une analyse robustes des données, principes qui sont également au cœur du développement et du déploiement des systèmes d'intelligence artificielle (IA). Les algorithmes d'IA, comme ceux potentiellement utilisés pour optimiser les horaires des trains, ne valent que par les données sur lesquelles ils sont entraînés. Si les données sont incomplètes ou biaisées, les décisions de l'IA peuvent être erronées, ce qui entraîne des conséquences imprévues.
Les implications de cet incident vont au-delà de la perturbation immédiate des services ferroviaires. Il soulève des questions plus larges sur le rôle des organismes de réglementation dans la supervision des systèmes complexes et sur le risque que la prise de décision fondée sur les données tourne mal. Alors que l'IA est de plus en plus intégrée dans divers secteurs, notamment les transports, la santé et la finance, il est essentiel de veiller à ce que les organismes de réglementation aient accès à des données complètes et précises, ainsi qu'à l'expertise nécessaire pour les interpréter efficacement. Les récents développements en matière de gouvernance de l'IA soulignent la nécessité de la transparence, de la responsabilité et de la supervision humaine dans les systèmes d'IA afin d'atténuer les risques de biais et d'erreur. L'expérience de l'ORR sert de mise en garde, soulignant l'importance d'une prise de décision éclairée dans un monde de plus en plus axé sur les données.
Discussion
Join the conversation
Be the first to comment