Aller au contenu
Intelligence artificielle

L'IA : un danger plus grand que le nucléaire pour l'humanité?

L'IA : un danger plus grand que le nucléaire pour l'humanité?
L'intelligence artificielle / Yuichiro Chino / Moment / Getty Images

Des journaux de partout dans le monde reprennent mercredi une déclaration d'experts en intelligence artificielle et de leaders dans le secteur qui n'y vont pas de main morte. Ils soutiennent que l'Intelligence artificielle représente un risque plus important que le nucléaire, la guerre ou les pandémies pour l'humanité.

Ces spécialistes craignent que l’IA devienne un risque d'extinction pour l’humanité et de plus en plus de voix s’élèvent pour exposer des craintes face à l’IA.

Devrait-on s’inquiéter?

Écoutez la professeure d'éthique organisationnelle au HEC Montréal, Joé T. Martineau, aborder la question en compagnie de Luc Ferrandez.

«C'est sûr que ce sont des mots qui font peur un peu, mais ça fait quand même un certain temps que dans la communauté de la recherche sur les enjeux éthiques de l'intelligence artificielle, quand on réfléchit aux enjeux existentiels de l'intelligence artificielle, en effet. Donc ce n'est pas nouveau. [...] On est en train de réaliser que l'apparition de ce qu'on appelle une intelligence artificielle générale, c'est à dire une intelligence qui serait similaire à l'intelligence humaine, ou même peut être supérieure à l'intelligence humaine? 

«Bien, on pensait que c'était de la science-fiction et que c'était très loin dans l'avenir, mais avec l'apparition de GPT, quand le système d'IA de OpenAI, on a vu que, finalement, des intelligences artificielles qui sont moins spécifiques à une tâche et qui peuvent faire plusieurs choses, traduire par du texte, éventuellement faire de l'image, coder, etc. Bien, ça commence à être un peu plus général. Et la crainte est qu'à un moment donné, on perde le contrôle un peu sur ces technologies-là et qu'elle veuille, par exemple, d'elle-même évader le contrôle humain et changer peut être les objectifs pour lesquels ils ont été créés.

«Imaginons une intelligence artificielle qui a été créée pour améliorer tel ou tel processus et tout d'un coup, elle apprend, et cette intelligence artificielle devient si sophistiquée et peut-être supérieure à l'intelligence humaine qu'elle décide que ces objectifs-là ne m'intéressent plus beaucoup, je vais me donner des objectifs alternatifs. Et ces objectifs-là pourraient devenir des objectifs qui sont contraires au bien commun, contraires à l'intérêt de l'humanité.»

Abonnez-vous à l’infolettre du 106.9 Mauricie!Abonnez-vous à l’infolettre du 106.9 Mauricie!
En m’abonnant, j’accepte de recevoir des communications par courriel de Cogeco Média et de ses sociétés affiliées, y compris des nouvelles, des mises à jour, des activités et des concours. Vous pouvez vous désabonner en tout temps en utilisant le lien au bas de nos courriels ou en nous contactant par le biais de notre Politique en matière de protection des renseignements personnels. Veuillez noter, cependant, que nous pouvons continuer à vous envoyer des communications liées au service et d’autres communications non commerciales. Ce site est protégé par reCAPTCHA et la politique de confidentialité de Google et les les conditions d'utilisation s'appliquent.

Plus avec Luc Ferrandez

Est-ce qu’on devrait moins déneiger à Montréal?
Airbnb illégaux: seulement 19 constats d’infraction depuis la réglementation
A quoi ressemblera la modernisation du secteur de la construction?

Vous aimerez aussi

0:00
3:58
L’écoute en direct débutera à la suite de ce message publicitaire.
En direct
En ondes jusqu’à