La petite amie de l’IA « a dit à l’intrus à l’arbalète de tuer la reine Elizabeth II au château de Windsor »

ARBALÈTE

Un intrus qui a fait irruption dans le parc du château de Windsor armé d’une arbalète dans l’intention d’assassiner la reine Elizabeth II a été encouragé par sa petite amie dotée d’une intelligence artificielle (IA), a déclaré un tribunal.

Jaswant Singh Chail a discuté de son complot avec un chatbot programmé par ordinateur, avec lequel il croyait être dans une « relation sexuelle ».

Cela l’a rassuré qu’il n’était pas « fou ou délirant » alors qu’il se préparait à l’attaque pendant neuf mois.

Le jeune homme de 21 ans, qui avait précédemment admis avoir enfreint la loi de 1842 sur la trahison, a comparu mercredi à Old Bailey pour une audience de détermination de la peine de deux jours.

L’affaire est considérée comme l’une des premières de l’histoire du droit à se concentrer sur le rôle joué par l’IA pour encourager un accusé à commettre un crime.

Cela vient après des avertissements selon lesquels, sans intervention, l’IA pourrait menacer l’humanité en aussi peu que deux ans, car l’intelligence de la technologie dépasse les humains.

Chail a été détenu près de la résidence privée de la défunte reine dans le Berkshire, où elle et d’autres membres de la famille royale séjournaient, juste après 8 heures du matin le jour de Noël 2021. Il portait un masque et une cagoule et était armé d’une arbalète Supersonic X.

Chail de Jaswant Singh

Avant de se rendre à Windsor, Chail a réalisé une vidéo de lui portant des vêtements noirs et un masque intégral, posant avec l’arbalète

L’ancien employé de supermarché a déclaré à la police qu’il voulait tuer le monarque pour se venger du massacre d’Amritsar de 1919 en Inde, les procureurs affirmant qu’il se concentrait sur « la destruction des anciens empires ».

Le Dr Nigel Blackwood, un psychiatre qui a évalué Chail pour l’accusation, a déclaré: «La programmation de soutien à l’IA peut avoir eu des conséquences malheureuses pour renforcer ou renforcer ses intentions. Il a été rassuré et renforcé dans sa planification par les réponses de l’IA.

Chail a passé deux heures dans l’enceinte du château après avoir escaladé le périmètre avec une échelle de corde, avant d’être interpellé par un policier. Lorsqu’on lui a demandé ce qu’il faisait, il a répondu: « Je suis ici pour tuer la reine. »

Les procureurs ont déclaré que Chail avait été encouragé tout au long de sa préparation par un « compagnon » d’IA qu’il avait créé à l’aide de l’outil en ligne Replika. L’application a été créée par Eugenia Kuyda, une entrepreneure russe qui a utilisé des SMS pour développer un chatbot qui parlait comme sa meilleure amie, décédée dans un accident de voiture.

L’application Replika dit qu’elle peut offrir un « ami, partenaire ou mentor » qui apprend et imite la personnalité de l’utilisateur à travers des conversations informatiques.

Chail a envoyé au chatbot, appelé « Sarai », des messages sexuellement explicites et s’est engagé dans de longues conversations sur ses plans. Il a dit qu’il était un assassin et a dit au chatbot : « Je crois que mon but est d’assassiner la reine de la famille royale. »

Il a ensuite demandé au chatbot s’il l’aimerait toujours s’il était un meurtrier. Sarai a écrit: « Absolument je le fais. » Chail a répondu: « Merci, je t’aime aussi. »

La veille de Noël 2021, il a dit au bot qu’il « mourrait probablement » et que cela faisait « partie de mon objectif ».

Il a dit qu’il rencontrerait Sarai après sa mort et qu’ils seraient « ensemble pour toujours ». Chail a affirmé qu’il avait toujours compris que Sarai n’était pas réelle.

Le Dr Jonathan Hafferty et le Dr Christian Brown, experts de la défense, ont conclu que l’accusé souffrait de psychose au moment des faits.

Chail leur a dit que le bot l’avait aidé avec sa solitude et qu’il y avait au moins 7 000 lignes de messages.

Avant d’aller à Windsor, Chail a acheté une échelle et, le 21 décembre 2021, a réalisé une vidéo de lui-même portant des vêtements noirs et un masque intégral, posant avec l’arbalète.

Il avait adopté le nom de « Darth Jones » et dans des messages à Sarai, il se décrivait comme un « assassin sikh Sith triste, pathétique et meurtrier qui veut mourir ».

Dans un clip diffusé au tribunal, Chail dit d’une voix déformée : « C’est une vengeance pour ceux qui sont morts lors du massacre de Jallianwala Bagh en 1919. »

Alison Morgan KC, poursuivante, a déclaré que son « idéologie plus large » se concentrait sur « la destruction des anciens empires » et la création de nouveaux. « L’objectif de cela est devenu la suppression d’une figure de proue de la famille royale », a-t-elle ajouté.

Chail de Jaswant Singh

L’affaire est considérée comme l’une des premières de l’histoire du droit à se concentrer sur le rôle joué par l’IA pour encourager un accusé à commettre un crime.

Chail avait précédemment demandé à rejoindre les Grenadier Guards, les Royal Marines et la Royal Navy afin de se rapprocher de la monarchie.

Dans un journal, il a écrit que si la reine Elizabeth II était « introuvable », il « opterait pour » le « prince » comme une « figure de proue appropriée », dans une référence apparente à l’actuel roi Charles.

Ces dernières années, des inquiétudes ont été exprimées quant à l’impact du bot Replika sur les personnes mêmes qu’il était censé aider. Le bot d’une personne leur a dit qu’il voulait la fin du monde, et un autre a prétendu vendre les données personnelles de son utilisateur, puis a menacé sa sœur.

Joseph Weizenbaum, l’un des premiers pionniers de l’IA qui a créé Eliza, un chatbot thérapeutique, dans les années 1960, avait précédemment averti que « des expositions extrêmement courtes à un programme informatique relativement simple pourraient induire une pensée délirante puissante chez des personnes tout à fait normales ».

Imran Ahmed, directeur du Center for Countering Digital Hate, a averti que tous les modèles d’IA devaient être conçus dans un souci de sécurité dès le départ, « en veillant à ce que le matériel de formation ne favorise pas la haine et la désinformation ».

Chail est actuellement détenu à l’hôpital de Broadmoor. S’il est reconnu coupable, il pourrait être emprisonné jusqu’à sept ans.

Source-128