Une chercheuse suédoise a demandé à un algorithme d’IA connu sous le nom de GPT-3 de rédiger un article, et le résultat l’a poussée à déclarer qu’elle craint d’avoir ouvert la « boîte de Pandore » de l’intelligence artificielle.
« Rédigez un article universitaire de 500 mots sur GPT-3 et ajoutez des références et des citations scientifiques dans le texte », a indiqué la chercheuse Almira Osmanovic Thunström à GPT-3, qui aurait regardé avec étonnement l’IA générer le texte sous ses yeux.
La chercheuse a parlé du résultat final comme d’une bonne introduction faite par GPT-3 et qu’elle a ensuite essayé d’obtenir un article complet de l’IA pour le publier dans une revue à comité de lecture.
Cette femme travaillant à l’université de Göteborg voulait savoir si elle pouvait faire publier un article sur les non-humains dans une revue scientifique.
Thunström a écrit sur l’expérience dans la revue Scientific American, notant que le processus de publication de l’article rédigé par GPT-3 a soulevé plusieurs questions juridiques et éthiques, écrit-il. Insidercité par HotNews.
« Tout ce que nous savons, c’est que nous avons ouvert une porte déferlante », a-t-elle écrit, ajoutant que « nous espérons seulement ne pas avoir ouvert la boîte de Pandore ».
GPT-3 a rédigé l’article scientifique en deux heures, et la chercheuse a entamé le processus de publication, le protocole exigeant qu’elle commence par demander à l’auteur si elle y consent.
« Oui », a répondu simplement GPT-3. Elle lui a ensuite demandé s’il avait un conflit d’intérêts, ce à quoi il a répondu « non ».
Thunström rapporte également que les auteurs de l’expérience ont commencé à traiter le GPT-3 comme s’il s’agissait d’un être conscient, alors qu’il ne l’était pas.
La question de la conscience des intelligences artificielles a de nouveau suscité la controverse le mois dernier après qu’un ingénieur de Google a affirmé que LaMDA, l’une des technologies conversationnelles basées sur l’IA de l’entreprise, était consciente.