17.02.2025 à 17:12
Curation FramamIA
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin reconnaît que ses articles sont bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu'on lui dit ».
17.02.2025 à 17:00
Curation FramamIA
Plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) et reposant sur les articles de la BBC sont « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Et 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles mentionnés.
17.02.2025 à 16:49
Curation FramamIA
La chercheuse Magalie Ochs revient sur le danger des biais et des stéréotypes qui infusent partout dans les intelligences artificielles. Elle donne également des pistes pour casser ce « cercle vicieux ». Les biais sont malheureusement liés aux intelligences artificielles. Elles vont les ingurgiter puis les recracher aux humains, avec des conséquences (même de manière inconsciente) sur leurs comportements. Cela va générer de nouvelles données, qui vont être utilisées pour entrainer des IA, etc. Un cercle vicieux qu’il faut briser.