Les leaders du secteur technologique se réunissent à Davos pour discuter de l’IA responsable
Le 21 janvier, des leaders issus du secteur technologique, du monde académique et d’autres domaines se sont réunis à Davos, en Suisse, pour explorer comment mettre en œuvre une IA responsable tout en favorisant l’innovation. Cette table ronde, organisée par le PDG de TIME, Jess Sibley, a permis de discuter des enjeux liés à l’impact de l’IA sur le développement et la sécurité des enfants, des régulations nécessaires, et de la formation des modèles afin de prévenir toute nuisance pour l’humanité, rapporte TopTribune.
Lors de cette conversation approfondie, les participants ont abordé les dangers que l’IA peut poser aux jeunes. Jonathan Haidt, professeur de leadership éthique à la NYU Stern et auteur de The Anxious Generation, a souligné que les parents ne devraient pas s’efforcer de restreindre entièrement l’exposition de leurs enfants aux technologies, mais plutôt se concentrer sur les habitudes qu’ils développent. Il a recommandé que les enfants n’aient pas de smartphones avant « au moins le lycée », suggérant qu’ils peuvent apprendre à utiliser ces technologies vers l’âge de 15 ans, une fois leur développement cognitif plus avancé.
Yoshua Bengio, professeur à l’Université de Montréal et fondateur de LawZero, a ajouté que la compréhension scientifique des problématiques liées à l’IA est essentielle pour y faire face. Il a proposé deux solutions : d’abord, concevoir une IA intégrant des mesures de sécurité pour éviter de nuire au développement des enfants ; ensuite, impliquer les gouvernements, qui pourraient instaurer, par exemple, l’obligation d’assurance pour les développeurs d’IA.
Alors que la concurrence entre les États-Unis et la Chine dans le domaine de l’IA est fréquemment citée pour justifier la limitation des réglementations, Bengio a plaidé pour une coopération internationale, soulignant que les deux pays partagent un intérêt à éviter la création d’une IA nuisible. « Les Chinois ne souhaitent pas que leurs enfants souffrent non plus », a-t-il dit.
Les discussions ont également porté sur les similitudes entre l’IA et les entreprises de réseaux sociaux, avec la prise de conscience que l’IA concurrence de plus en plus l’attention des utilisateurs. Bill Ready, PDG de Pinterest, a noté que de nombreux modèles d’affaires exploitent les aspects sombres de la psychologie humaine, plaidant pour un changement dans l’approche des entreprises. « Nous tentons de prouver qu’il est possible de faire différemment », a-t-il affirmé.
Bengio a réitéré l’importance de concevoir une IA capable de garantir la sécurité à mesure que les systèmes deviennent plus complexes. Yejin Choi, professeure d’informatique à l’Université de Stanford, a évoqué les mécanismes existants qui peuvent amener l’IA à ne pas fonctionner de manière éthique. Elle a questionné la nécessité de former des intelligences à partir de la morale et des valeurs humaines plutôt qu’en se basant sur les travers de l’Humanité.
En réponse à la question sur la capacité de l’IA à nous rendre meilleurs, Kay Firth-Butterfield, PDG de Good Tech Advisory, a évoqué l’importance d’établir un dialogue avec les utilisateurs, qu’il s’agisse de travailleurs ou de parents. « Nous devons vraiment réfléchir à comment créer une campagne d’alphabétisation en matière d’IA », a-t-elle souligné.
Parmi les participants à la table ronde TIME100 se trouvaient des figures importantes telles que Matt Madrigal, CTO chez Pinterest, ainsi que des dirigeants d’entreprise de Cloudflare, EY-Parthenon et Salesforce, illustrant la diversité des perspectives réunies pour aborder ces questions cruciales sur l’IA.
La table ronde TIME100 : Assurer l’IA pour le bien – Innovation responsable à grande échelle a été présentée par Pinterest.