L’avenir est là : comment j’ai utilisé l’IA pour rédiger un mémoire juridique – Nigéria

L’intelligence ARTIFICIELLE est là, et l’industrie juridique doit être préparée à la manière dont l’IA affectera l’espace juridique. La technologie a une façon de se faufiler sur vous, progressivement ; puis soudainement. Récemment, j’ai utilisé l’intelligence artificielle pour rédiger un mémoire juridique sur des questions complexes de droit de la responsabilité délictuelle et de droit des contrats afin de tester l’efficacité et l’adaptabilité de l’intelligence artificielle à la rédaction de mémoires judiciaires au Nigeria ; surtout pour voir à quel point il pouvait citer la jurisprudence et les autorités nigérianes. J’ai imputé la commande suivante : « Avec la jurisprudence du Nigeria, rédigez un mémoire sur la compagnie aérienne refusant l’embarquement des passagers. » Il a répondu par la réponse suivante: «Dans ce mémoire, nous aborderons l’effet juridique d’une compagnie aérienne refusant l’embarquement d’un passager, en référence à la jurisprudence nigériane. Dans l’affaire nigériane Abolaji contre Arik Air Limited, le tribunal a estimé que le refus d’une compagnie aérienne d’autoriser un passager à embarquer sur un vol était injustifié et en violation des termes du contrat du passager, et a accordé des dommages-intérêts au passager pour les pertes. et les inconvénients subis à la suite du refus d’embarquement.

Dans l’affaire Alakija c. Virgin Atlantic Airways, le tribunal a confirmé le droit du passager d’être transporté par la compagnie aérienne avec laquelle il avait contracté et a statué que la compagnie aérienne était responsable des dommages pour non-respect de ses obligations en vertu du contrat. Le tribunal a également accordé des dommages-intérêts au passager pour la détresse mentale et les inconvénients causés par le refus d’embarquement. En outre, dans l’affaire Oluwadamilola c. Air France, le tribunal a jugé que le refus d’embarquement d’un passager par une compagnie aérienne sans justification ou en violation des termes du contrat du passager constituait une rupture du contrat et a accordé des dommages-intérêts au passager pour les pertes et les inconvénients subis en conséquence. Ces affaires établissent qu’au Nigéria, les passagers qui se voient refuser l’embarquement par une compagnie aérienne sans justification ou en violation de leur contrat peuvent avoir le droit de demander des dommages-intérêts pour toute perte ou inconvénient subi en conséquence. Les compagnies aériennes ont l’obligation légale de transporter les passagers conformément aux termes du contrat, et tout refus d’embarquement sans justification ou en violation du contrat peut donner lieu à une responsabilité pour dommages.

Outre la commande de question ci-dessus et le mémoire rédigé par l’IA, je lui ai posé d’autres questions compliquées dans les domaines du droit de la responsabilité délictuelle et du droit des contrats ; et il a analysé les questions au format IRAC en donnant sa conclusion sur la base des questions soulevées et des jurisprudences citées. Observations : 1. Sa réponse n’est pas encore assez détaillée pour aborder les problèmes. 2. Il lui est difficile de citer des articles et des citations de jurisprudence. 3. Il a analysé de manière équitable des scénarios complexes basés sur des problèmes conformément aux autorités décidées. 4. Il ne peut toujours pas déterminer son ingéniosité pour trouver des solutions intelligentes à des problèmes juridiques complexes et compliqués. 5. Bien que cette IA particulière ne puisse pas examiner les documents juridiques, il existe d’autres IA qui peuvent le faire. 6. AI ne peut pas interroger les clients, sauf si c’est sous forme écrite. 7. L’IA est incapable d’infuser l’empathie ou l’émotion parfois nécessaire dans le texte.

  1. Bien que différentes applications d’IA puissent donner des réponses variées, il appartient toujours à l’humain de l’affiner et de choisir la mieux adaptée à son argument. 9. L’interprétation des textes statutaires pose encore problème, notamment la décision sur le meilleur Canon d’interprétation à adopter. 10. L’IA n’exerce pas et ne peut pas exercer son pouvoir discrétionnaire autant que les humains peuvent exercer son pouvoir discrétionnaire, par exemple la décision d’un avocat de définir un terme énoncé dans une loi ou la décision de retracer l’origine d’une loi ou si une note marginale faisait ou non partie de un projet de loi avant qu’il ne devienne loi. 11. Biais de l’IA. Cela peut se produire parce que l’IA survit et vit des données accumulées qui y sont introduites ou recueillies, il existe des chances qu’une IA biaisée existe ; sur la base d’informations intentionnellement ou non intentionnellement biaisées ou erronées. Par exemple, si les données transmises en continu à une IA indiquent que le jaune est meilleur que le vert, le résultat que l’IA donnera est toujours que le jaune est meilleur que le vert. 12. Si le secteur juridique s’appuie totalement sur l’IA, il peut être susceptible d’être piraté et contrôlé par les opérateurs, l’entreprise et les programmeurs de ces IA, en particulier dans les affaires judiciaires à fort enjeu ou l’analyse des contrats.

J’ai utilisé Chat GPT. Chat GPT est un outil de traitement du langage naturel (NLP) qui utilise un puissant modèle d’apprentissage automatique pour générer des réponses de type humain au texte saisi. Il en existe d’autres tels que Quick Check de Westlaw Edge, Lexis+ Brief Analysis, IBM Watson, etc. Malgré les capacités de ces intelligences artificielles, les praticiens du droit doivent s’adapter sans craindre pour leur travail (du moins pas encore)

Recommandation

L’industrie juridique doit être préparée avec les documents d’éducation et de politique nécessaires. Par exemple, la faculté de droit et les facultés de droit du Nigéria doivent commencer à réfléchir à la manière d’inculquer l’utilisation inévitable de l’IA dans leurs programmes. être plus efficace. L’Association du Barreau du Nigeria doit créer un système et un document de politique sur l’utilisation éthique de l’IA par les avocats, sa portée et ses limites.

L’Organe disciplinaire des praticiens du droit doit examiner l’utilisation de l’intelligence artificielle pour déterminer ce qui constituera une faute professionnelle et une faute professionnelle.

Les avocats et les cabinets d’avocats doivent comprendre comment l’IA peut aider au mieux leur pratique sans entraîner la divulgation d’informations sur les clients. L’ensemble du secteur de la justice doit être prêt et utiliser au mieux l’IA, avec prudence envers la cause de la justice.

Avatar de Abedi Bakari