The Sensor: Legal Insights into Autonomous Vehicles

POINT DE VUE

Sur le radar : Décollage autorisé : les technologies autonomes et litiges dans le secteur de l'aviation

Évolution de l’automatisation en matière d’aviation et opinion publique

Les technologies autonomes dans le secteur de l’aviation ne datent pas d’hier. Le Hewitt-Sperry Automatic Airplane, avion sans pilote conçu pour larguer des explosifs pendant la Première Guerre Mondiale, volait dès 1917. En 1933, le Winnie Mae et son pilote ont fait le tour de la planète en sept jours, aidés de la première technologie de pilotage automatique. Depuis ces premiers vols, l’industrie de l’aviation n’a cessé de progresser, si bien que les systèmes traditionnels de vol automatique, comme le pilote automatique et la commande automatique des gaz, sont maintenant la norme, et que l’automatisation du poste de pilotage fait désormais partie du domaine du possible, qu’on parle d’UAV entièrement autonome ou d’avions commerciaux sans pilote. Si les technologies dites d’« apprentissage profond » ou d’« apprentissage machine » ne semblent pas refroidir l’industrie, il pourrait en être tout autrement pour le public, dont la perception de l’automatisation en matière d’aviation et l’inconfort qu’elle suscite pourraient bien devenir des facteurs à considérer lors d’éventuels procès devant jury portant sur des questions d’aviation autonome. De plus, les préoccupations du public quant aux avancées rapides de l’automatisation en aviation sont sans doute fondées. En effet, la combinaison de technologie, de facteurs humains et de conditions météorologiques – autant de facteurs importants pendant un vol – comporte déjà une quantité considérable de risques variables, et la technologie autonome vient ajouter à l’incertitude perçue quant à l’évaluation de ces risques.

Un événement est venu illustrer de façon tragique et extrême la façon dont le risque aérien et l’automatisation sont étroitement liés. Un jour, alors qu’il pleuvait fortement, un avion bimoteur s’est mis à descendre de façon continue jusqu’au moment où il s’est écrasé dans le champ d’un agriculteur, puis a explosé, entraînant la mort des 21 personnes à bord. Si la pluie et les turbulences ont joué un rôle dans l’accident, elles n’en ont pas nécessairement été les causes principales. L’avion, un C‑23B+ Sherpa, était équipé d’une pilote automatique, dont la défaillance – qui aurait contribué à l’écrasement – a été au cœur d’un recours contre le concepteur et fabricant du système en question (Ferguson v. Bombardier Service Corp., 244 F. App’x 944 (11th Cir. 2007). Un autre exemple du lien entre le risque aérien et l’automatisation, quoique remontant à plus loin, est le suivant : un système de pilote automatique aurait connu une défaillance pendant un vol donnant lieu à des ajustements rapides du tangage par suite desquels des passagers ont été blessés (Nelson v. American Airlines, Inc. 70 Cal. Rptr. 33 (Cal. Ct. App. 1968). Les passagers blessés sur ce vol d’American Airlines ont toutefois été chanceux; environ un an plus tard, soit le 1er mars 1962, le 707‑123B Astrojet assurant le Vol 1 American Airlines s’est abîmé dans la baie de Jamaica, près du Queens, deux minutes après le décollage, en raison d’un problème des servomoteurs de la gouverne de direction. Cette défaillance d’une technologie autonome aura coûté la vie à 95 personnes.

Ces accidents liés au pilote automatique se sont toutefois produits bien avant l’entrée en scène des nouveaux processeurs et des nouvelles technologies que nous connaissons aujourd’hui. Les applications de l’IA à l’aviation pourraient bientôt déclasser le développement de logiciels, et ce changement a rendu possible l’apprentissage machine des contrôles de vol à partir de données vidéos, de coordonnées GPS, de sonars et de gyroscopes. Cet apprentissage machine pourra à son tour ouvrir la voie au contrôle autonome de l’altitude, de l’attitude, de la direction, de la performance du moteur et de plusieurs autres aspects liés au vol, qui nécessite peu ou pas d’intervention humaine. Grâce aux innovations auxquelles travaillent des fabricants et des opérateurs avant-gardistes, les taxis volants autonomes et les véhicules électriques à décollage et atterrissage verticaux ne sont plus seulement des concepts vagues. Par ailleurs, de nouveaux algorithmes de poursuite et de reconnaissance d’images sont capables de s’adapter en temps réel, ce qui permet aux UAV et aux drones de voler et de poursuivre leur trajet même si les vents en altitude influent sur leur position ou si des obstacles leur obstruent la vue. Tout comme les humains prennent des décisions différentes en fonction de leur apprentissage, les nouveaux systèmes d’IA dont sont dotés certains aéronefs et UAV peuvent apprendre et progresser à l’intérieur du mode de transport qui les abrite au point où celui-ci peut en venir à fonctionner sans l’apport d’un pilote. Parallèlement aux formidables avancées que sont la mise au point et l’adoption de l’IA dans l’industrie aéronautique, on assiste également au raffinement croissant du traitement du langage naturel, grâce auquel la communication entre l’homme et la machine peut se faire de façon plus continue, que l’humain soit à bord du véhicule ou au sol et le contrôlant à distance.

Défaillances des technologies de vol automatique et responsabilité du fait du produit

Certes, les récentes avancées technologiques sont impressionnantes. Néanmoins, les systèmes aéronautiques autonomes autrefois installés sur des aéronefs pilotés étaient conçus pour permettre au pilote de désactiver manuellement le pilote automatique ou la commande automatique des gaz si l’un ou l’autre venait à défaillir. Mais qu’en sera-t-il si un système totalement autonome ou une IA capable d’apprentissage profond sont en cause? Les enseignements tirés de litiges portant sur le pilote automatique, particulièrement en provenance des États-Unis, peuvent offrir un éclairage aux entreprises qui mettent en œuvre de nouvelles technologies aéronautiques autonomes en ce qui concerne la façon dont les tribunaux pourraient évaluer la culpabilité en cas de catastrophe.

Dans l’affaire Ferguson v. Bombardier Services Corp., dont il a brièvement été question ci-dessus, les représentants des passagers décédés à bord du Sherpa C-23 qui s’est écrasé dans un champ par un matin pluvieux ont intenté une action contre le concepteur et fabricant du système de pilotage automatique relativement à son rôle présumé dans cet accident mortel. Selon les demandeurs, entre autres facteurs responsables figurait le système de pilotage automatique, qui aurait par erreur activé le limiteur de couple, réduisant ainsi l’efficacité de toute intervention du pilote. De plus, les demandeurs soutenaient qu’aucun voyant n’avait été installé pour signaler au pilote la mise en fonction du limiteur de couple. Les demandeurs ont également allégué que le système de pilotage automatique avait été mal installé et que cela s’était traduit par le blocage d’un câble qui avait empêché le rétablissement de l’appareil une fois sa descente amorcée. Toutefois, le témoignage de l’expert du demandeur portant sur les défauts du système de pilotage automatique n’a pas été retenu au procès. Ainsi, selon la preuve qui a été présentée au tribunal, parmi les principales causes de la perte de contrôle de l’avion figurait la décision du pilote de quitter le cockpit pour se rendre aux toilettes, ce qui a entraîné un transfert de poids dans l’appareil, déjà chargé incorrectement, et, par là même, le déplacement malencontreux de son centre de gravité, qui plus est à un moment où il traversait des turbulences et était soumis au cisaillement du vent.

Dans l’affaire Nelson v. American Airlines, Inc., dont nous avons également traité ci-dessus, les demandeurs ont intenté une action en dommages-intérêts contre American Airlines pour indemniser un passager qui avait été projeté au plafond à la suite d’un mouvement soudain et inattendu causé par une manœuvre de surcompensation du pilote automatique qui a fait piquer l’appareil du nez. Bien que le pilote automatique ait été désengagé et le contrôle manuel repris après l’erreur, les passagers assis à l’arrière de l’appareil ont rebondi plus fortement, car le changement soudain du tangage était lié au compensateur du stabilisateur horizontal. Le carnet de bord de l’appareil indiquait que des problèmes relatifs aux contrôles d’altitude avaient été repérés la veille et, bien qu’ils n’aient pas été graves, leur cause demeurait inconnue. C’est pourquoi un composant du pilote automatique avait été remplacé et le matériel testé par précaution. Toutefois, aucun vol d’essai n’avait eu lieu entre le moment où l’on avait procédé au remplacement et le vol problématique. Lors du procès, la compagnie aérienne n’a pas été déclarée responsable du mauvais fonctionnement du pilote automatique, mais cette décision a été infirmée en appel. La cour d’appel, pour sa part, a conclu que des erreurs avaient peut-être été commises lors de l’installation du composant de remplacement du pilote automatique et que les entretiens courants antérieurs avaient été soit incomplets, soit inadéquats. Il convient de noter que l’absence de vol d’essai dans ces circonstances n’a pas été considérée comme de la négligence compte tenu des exigences réglementaires qui avaient alors cours.

Ces deux causes portées devant les tribunaux ont essentiellement porté sur des allégations de négligence dans la conception, la fabrication, l’installation et l’entretien des systèmes de vol automatique. Ces questions continueront d’ailleurs de préoccuper les fabricants, fournisseurs et intégrateurs de composants de technologies aéronautiques autonomes destinés aux avions avec et sans pilote. Les registres d’entretien et les carnets de bord des avions, quant à eux, continueront d’être scrutés à la loupe, tout comme le seront les prédictions des concepteurs de technologie autonome quant à la façon dont leurs systèmes réagiront aux commandes données par des humains et à la manière dont des systèmes de surpassement seront intégrés dans leurs produits. L’aviation étant un secteur multidimensionnel, même si la conception ou la fabrication de technologies autonomes peuvent être considérées comme un facteur ayant eu une incidence sur un accident, des éléments comme les facteurs humains, les conditions météo, le poids et le centrage demeureront des considérations importantes pour les tribunaux.

Par ailleurs, les fabricants pourraient faire l’objet de critiques de la cour s’ils ne fournissent pas de conseils adéquats sur l’entretien de leurs technologies autonomes ou s’ils ne remplissent pas leur obligation d’information à l'égard de leurs risques intrinsèques.

L’« obligation d’information » et « l’obligation de formation » liées aux technologies autonomes

Une préoccupation croissante des fabricants et des utilisateurs de technologies aéronautiques autonomes réside dans leur « obligation d’information » prévue par la common law quant aux risques inhérents à ces technologies. De récentes causes d’action et enquêtes sur des accidents aériens mettant en jeu des technologies autonomes ont jusqu’à maintenant été axées sur l’existence ou non d’une « obligation de formation » à l’égard des pilotes et des utilisateurs finaux.

Les tribunaux peuvent déterminer qu’un produit est défectueux si un fabricant omet d’y joindre des avertissements et des instructions appropriés pour en permettre l’usage, l’entretien ou la maintenance sécuritaires. L’obligation d’information des fabricants suit les principes de la doctrine sur la faute professionnelle en matière de formation, qui repose sur des réclamations fondées sur le fait qu’une formation déraisonnable ou de mauvaise qualité peut être préjudiciable. L’« obligation de formation » en tant qu’obligation distincte en common law n’est pas encore largement acceptée, mais le concept pourrait le devenir et être élargi par le système judiciaire dans le contexte de l’évolution de l’IA et des technologies autonomes complexes dans le secteur de l’aviation puisque la finalité de ces formations et des technologies autonomes est la même, à savoir, la capacité pour les machines et les humains d’agir de façon indépendante.

Dans une affaire récente ayant trait à la responsabilité du fait du produit, Glorvigen v. Cirrus Design Corporation 816, N.W.2d 572, 583 (Minn. 2012), la formation sur une interface de pilotage a été mise en cause relativement à l’écrasement d’un appareil Cirrus SR22. Cet accident mortel impliquait un monomoteur privé à quatre places qui volait dans des conditions météorologiques marginales selon les règles de vol à vue. Lors d’une enquête réalisée à la suite de l’écrasement, il a été démontré que ni l’appareil ni le moteur n’avaient montré de problème. Par contre, l’erreur du pilote et sa désorientation dans l’espace ont été cités comme des facteurs ayant causé l’écrasement. De plus, les demandeurs se sont également tournés vers le fabricant du SR22 en alléguant qu’il avait manqué à son devoir d’information en ce qu’il n’avait pas fourni une formation adéquate concernant l’utilisation du pilote automatique (la réglementation, toutefois, n’obligeait pas le fabricant à offrir ce type de formation). Ainsi, les demandeurs ont plaidé que la désorientation du pilote et l’accident lui-même ne seraient pas survenus si le fabricant avait fourni une formation adéquate aux nouveaux propriétaires du SR22, notamment sur la façon dont le pilote automatique peut servir à diriger l’appareil hors de mauvaises conditions atmosphériques. Le fabricant a admis qu’il avait une obligation d’information concernant les dangers liés à l’utilisation de son appareil SR22. Néanmoins, il a fait appel de la décision en première instance en soutenant que l’obligation d’information n’inclut pas l’obligation de formation des pilotes concernant l’utilisation de son appareil. Or, l’action a été intentée dans un État où les réclamations pour faute professionnelle sont interdites. Dans d’autres territoires, une réclamation contre un fabricant pour manquement à son obligation d’information pourrait comporter des allégations concernant la formation inadéquate sur une technologie autonome si des problèmes entre le pilote et la technologie étaient survenus antérieurement.

L’atterrissage raté du vol 214 d’Asiana Airlines en juillet 2013, à San Francisco, est un des exemples les plus connus de formation inadéquate. Un matin de juillet, dans la ville du nord de la Californie, à la suite d’une descente mal effectuée, un Boeing 777-200ER a heurté la piste, faisant trois morts et de nombreux blessés. En plus de réclamations contre la compagnie aérienne, d’autres réclamations ont été déposées contre Boeing, dans lesquelles il a été allégué que l’entreprise n’avait pas correctement formé les pilotes sur les systèmes de vol automatique du Boeing 777. Ainsi, il faut mentionner que le pilote en charge du vol 214 n’avait piloté que pendant un nombre limité d’heures de formation sur l’appareil en question, que le pilote superviseur surveillait son premier vol et que la configuration du cockpit avait peut-être ajouté à la confusion quant à la façon d’utiliser ou d’interpréter le système de vol automatique pendant la descente. Ce litige n’a toutefois pas donné lieu à une jurisprudence confirmant l’existence de cette « obligation de formation » relativement aux technologies autonomes.

Prévisions actuelles en matière de litiges futurs relatifs aux technologies autonomes dans l’industrie de l’aviation

Les fabricants doivent s’attendre à des réclamations pour conception, fabrication et installation inadéquates. Quoi qu’il en soit, les réclamations de ce type dans le domaine de l’aviation pourraient être plus complexes et compliquées à plaider étant donné leur niveau de complexité. Compte tenu de l’évolution et de l’adoption croissantes des technologies autonomes dans les systèmes aériens, les organismes de réglementation pourraient se voir pressés de prendre des mesures pour s’assurer que les utilisateurs finaux de ces technologies sont adéquatement formés pour surveiller, comprendre et entretenir les nouveaux systèmes. Dans les cas où la technologie autonome doit interagir avec l’humain, les pilotes doivent tenir à jour leurs compétences en vol manuel pour pouvoir agir en cas de défaillance ou de mauvaise interprétation des systèmes de vol automatique. De plus, les règlements qui exigent que les pilotes demeurent alertes en tout temps malgré l’activation de technologies autonomes continueront vraisemblablement de s’appliquer. Malgré le raffinement sans cesse plus poussé des technologies autonomes, les pilotes devront toujours posséder des compétences de pilotage sérieuses et maintenir une vigilance appropriée, ce qui accroîtra l’interconnexion entre l’homme et la machine. Les fabricants doivent donc s’attendre à ce que la façon dont ils s’acquittent de leur obligation d’information concernant les dangers inhérents à leurs technologies aéronautiques autonomes et la formation qu’ils dispensent à ceux qui les utilisent fassent l’objet d’examens pointus.

  • Par : Katherine Ayre

Table des matières