Les entreprises annoncent de nouveaux produits d’IA presque chaque semaine. Google aussi la semaine dernièreet Nvidia un nouveau.
Depuis l’avènement du boom de l’IA, des voix critiques ont souligné d’éventuels impacts négatifs.
Voici ce qui s'est passé :L'ancien patron de Google, Eric Schmidt, aselon la Fortunedans une interview accordée à la chaîne de télévision américaine ABC News sur le danger que représente l'IA auto-améliorée.
Sa suggestion : Dès qu’une IA est capable de s’améliorer, il faut penser à l’éteindre. En cas d’urgence, un « kill switch » pourrait sauver l’humanité d’une catastrophe.
Si le système peut s’améliorer, nous devons sérieusement envisager de le désactiver. Ce sera difficile. Il sera très difficile de maintenir l'équilibre.
Eric Schmidt, ancien chef de Google
En matière d’intelligence artificielle, une large distinction est faite entre l’intelligence artificielle générale et la superintelligence artificielle.
- Intelligence générale artificiellesignifie que les systèmes d'IA sont capables d'apprendre ou de comprendre n'importe quelle tâche, tout comme les humains.
- Avec la superintelligence des machinesL’IA serait intellectuellement supérieure aux humains à tous égards.
Intelligence générale artificielle : la prochaine étape
OpenAI, Antrophic et autres sociétés d'IAsont sûrsque les systèmes d’IA atteindront bientôt le niveau de l’intelligence artificielle générale.
Tellement trahiLe PDG d'Antrophic, Dario Amode, a déclaré cette année que cela pourrait être dès 2026 ou 2027. Selon Sam Altman, PDG d'OpenAI, l'objectif devrait être atteint dans les cinq prochaines années.
Cependant, il convient également de garder à l’esprit que les entreprises d’IA ont certainement intérêt à promouvoir les possibilités de l’IA, même si cela signifie parfois s’attendre au pire.