Selon le PDG de News Corp Australia, les créateurs d’applications alimentées par l’intelligence artificielle (IA) devraient payer pour les informations et le contenu utilisés pour améliorer leurs produits.
Dans un 2 avril éditorial dans The Australian, Michael Miller a appelé les « créateurs de journalisme et de contenu originaux » à éviter les erreurs passées qui « ont décimé leurs industries » en permettant aux entreprises technologiques de tirer profit de l’utilisation de leurs histoires et informations sans compensation.
Les chatbots sont des logiciels qui ingèrent des nouvelles, des données et d’autres informations pour produire des réponses à des requêtes qui imitent la parole humaine écrite ou parlée, dont le plus notable est le chatbot ChatGPT-4 de la société d’intelligence artificielle OpenAI.
Selon Miller, l’essor rapide de l’IA générative représente une autre initiative des puissantes entreprises numériques pour développer « un nouveau pot d’or pour maximiser les revenus et les bénéfices en prenant le contenu créatif des autres sans les rémunérer pour leur travail original ».
En utilisant OpenAI comme exemple, Miller a affirmé que la société « a rapidement créé une entreprise » d’une valeur de 30 milliards de dollars en « utilisant le contenu original et la créativité des autres sans rémunération ni attribution ».
Le gouvernement fédéral australien mis en œuvre le News Media Bargaining Code en 2021, qui oblige les plateformes technologiques australiennes à payer les éditeurs de nouvelles pour le contenu d’actualité mis à disposition ou lié sur leurs plateformes.
Miller affirme que des lois similaires sont nécessaires pour l’IA, afin que tous les créateurs de contenu soient rémunérés de manière appropriée pour leur travail.
« Les créateurs méritent d’être récompensés pour leur travail original utilisé par les moteurs d’IA qui attaquent le style et le ton non seulement des journalistes mais (pour n’en nommer que quelques-uns) des musiciens, auteurs, poètes, historiens, peintres, cinéastes et photographes. »
Plus de 2 600 leaders technologiques et chercheurs ont récemment signé une lettre ouverte appelant à une pause temporaire dans le développement de l’intelligence artificielle (IA), craignant « des risques profonds pour la société et l’humanité ».
Pendant ce temps, le chien de garde italien en charge de la protection des données a annoncé un blocage temporaire de ChatGPT et ouvert une enquête sur des violations présumées des règles de confidentialité des données.
Miller pense que les créateurs de contenu et les entreprises d’IA peuvent tous deux bénéficier d’un accord, plutôt que de bloquer ou d’interdire purement et simplement la technologie.
Je respecte les inquiétudes mais je ne signerai pas ça. Les LLM ne deviendront pas des AGI. Ils posent des risques sociétaux, comme beaucoup de choses. Ils ont aussi un grand potentiel pour le bien. La pression sociale pour ralentir la R&D devrait être réservée aux armes biologiques et aux armes nucléaires, etc., et non à des cas complexes comme celui-ci.
– Ben Goertzel (@bengoertzel) 29 mars 2023
Il a écrit qu’avec des « garde-corps appropriés », l’IA a le potentiel de devenir une ressource journalistique précieuse. Il peut aider à créer du contenu, à « rassembler des faits plus rapidement », à publier sur plusieurs plateformes et pourrait accélérer la production vidéo.
En rapport: « Biais, trompeur » : le Center for AI accuse le créateur de ChatGPT d’avoir enfreint les lois commerciales
L’industrie de la cryptographie commence également à voir plus de projets utilisant l’IA, bien qu’elle en soit encore à ses débuts.
Miller pense que les moteurs d’IA courent un risque pour leur succès futur s’ils ne peuvent pas convaincre le public que leurs informations sont dignes de confiance et crédibles, ajoutant que « pour y parvenir, ils devront indemniser équitablement ceux qui fournissent la substance de leur succès ».
Magazine : Tout monte pour le robot juge : l’IA et la blockchain pourraient transformer la salle d’audience