SE_2024/14 - Interdiction de l'outil Chat GPT
Pétitions
Changements sur "SE_2024/14 - Interdiction de l'outil Chat GPT"
Description (Français)
-<h3>Mesdames, Messieurs les représentant.e.s,</h3><p>Personne ne peut le nier, l'intelligence artificielle, notamment les modèles de langage comme ChatGPT d'OpenAI, est un outil qui a intégré la vie de tout le monde grâce à sa simplicité d'utilisation et à la simplification de certaines tâches. Cependant, cette technologie, bien qu'elle transforme notre quotidien en générant du texte de manière fluide et convaincante, présente des risques sérieux pour ses utilisateurs et leur vie privée. Parmi ces risques, on compte la diffusion de désinformation, la manipulation de l'opinion publique, la reproduction de biais, ainsi que la divulgation d'informations sensibles ou dangereuses. Il est essentiel de reconnaître ces dangers et de prendre des mesures pour les prévenir afin de protéger la société tout en permettant une utilisation éthique et sécurisée de cette technologie. Voici plusieurs risques liés à son utilisation :</p><p>1.Diffusion de désinformation :</p><p>L'un des dangers majeurs de ChatGPT réside dans sa capacité à générer du texte qui semble crédible et bien informé. Si l'IA est sollicitée pour fournir des informations sur des sujets sensibles ou complexes, elle peut produire des réponses incorrectes ou trompeuses. Par exemple, des informations médicales erronées ou des conseils financiers douteux pourraient avoir des conséquences graves pour ceux qui s'y fieraient sans discernement.</p><p>2.Manipulation et influence :</p><p>Les modèles comme ChatGPT peuvent être utilisés pour produire de grandes quantités de contenu, ce qui peut être exploité à des fins de manipulation ou de désinformation. ChatGPT pourrait générer des messages automatisés sur les réseaux sociaux, créant ou amplifiant des fake news, des théories du complot, ou des campagnes de désinformation politique. Ce type d'utilisation pourrait influencer l'opinion publique de manière subtile mais significative.</p><p>3.Préservation des biais et des préjugés :</p><p>Il n'est pas possible d'éliminer complètement les biais présents dans les données d'entraînement. Par conséquent, l'IA peut reproduire ou même amplifier des stéréotypes ou des préjugés sociaux, culturels, et ethniques. Cela pourrait perpétuer des injustices ou des discriminations.</p><p>4.Atteinte à la vie privée :</p><p>ChatGPT, comme d'autres modèles d'IA, peut être utilisé pour analyser de grandes quantités de données textuelles et détecter des informations sensibles.Cela pourrait être utilisé pour extraire des informations personnelles ou sensibles à partir de conversations ou de textes, violant ainsi la vie privée des individus.</p><p>5.Accès à des informations sensibles et illégales :</p><p>ChatGPT peut fournir des informations sur des activités illégales ou dangereuses, comme la fabrication d'armes ou la fraude.</p><p>Pour rappel, après avoir investi 9 milliards d'euros dans ChatGPT, Microsoft a dissous son équipe "éthique et société," dont la mission était d'assurer l'utilisation sécurisée des technologies développées par l'entreprise.</p><p>Une régulation stricte et une surveillance renforcée voire une interdiction totale sont demandées pour encadrer l'utilisation de ChatGPT afin de protéger les utilisateurs et la société, tout en permettant une innovation éthique et sécurisée. En signant cette pétition, nous appelons à des mesures concrètes pour prévenir les abus potentiels et maximiser les avantages de cette technologie de manière responsable.</p><ol><li><span class="ql-ui" contenteditable="false"></span>Merci pour l'attention qui sera apportée à cette pétition.</li></ol>- +<h3>Mesdames, Messieurs les représentant.e.s,</h3><p>Personne ne peut le nier, l'intelligence artificielle, notamment les modèles de langage comme ChatGPT d'OpenAI, est un outil qui a intégré la vie de tout le monde grâce à sa simplicité d'utilisation et à la simplification de certaines tâches. Cependant, cette technologie, bien qu'elle transforme notre quotidien en générant du texte de manière fluide et convaincante, présente des risques sérieux pour ses utilisateurs et leur vie privée. Parmi ces risques, on compte la diffusion de désinformation, la manipulation de l'opinion publique, la reproduction de biais, ainsi que la divulgation d'informations sensibles ou dangereuses. Il est essentiel de reconnaître ces dangers et de prendre des mesures pour les prévenir afin de protéger la société tout en permettant une utilisation éthique et sécurisée de cette technologie. Voici plusieurs risques liés à son utilisation :</p><p>1.Diffusion de désinformation :</p><p>L'un des dangers majeurs de ChatGPT réside dans sa capacité à générer du texte qui semble crédible et bien informé. Si l'IA est sollicitée pour fournir des informations sur des sujets sensibles ou complexes, elle peut produire des réponses incorrectes ou trompeuses. Par exemple, des informations médicales erronées ou des conseils financiers douteux pourraient avoir des conséquences graves pour ceux qui s'y fieraient sans discernement.</p><p>2.Manipulation et influence :</p><p>Les modèles comme ChatGPT peuvent être utilisés pour produire de grandes quantités de contenu, ce qui peut être exploité à des fins de manipulation ou de désinformation. ChatGPT pourrait générer des messages automatisés sur les réseaux sociaux, créant ou amplifiant des fake news, des théories du complot, ou des campagnes de désinformation politique. Ce type d'utilisation pourrait influencer l'opinion publique de manière subtile mais significative.</p><p>3.Préservation des biais et des préjugés :</p><p>Il n'est pas possible d'éliminer complètement les biais présents dans les données d'entraînement. Par conséquent, l'IA peut reproduire ou même amplifier des stéréotypes ou des préjugés sociaux, culturels, et ethniques. Cela pourrait perpétuer des injustices ou des discriminations.</p><p>4.Atteinte à la vie privée :</p><p>ChatGPT, comme d'autres modèles d'IA, peut être utilisé pour analyser de grandes quantités de données textuelles et détecter des informations sensibles.Cela pourrait être utilisé pour extraire des informations personnelles ou sensibles à partir de conversations ou de textes, violant ainsi la vie privée des individus.</p><p>5.Accès à des informations sensibles et illégales :</p><p>ChatGPT peut fournir des informations sur des activités illégales ou dangereuses, comme la fabrication d'armes ou la fraude.</p><p>Pour rappel, après avoir investi 9 milliards d'euros dans ChatGPT, Microsoft a dissous son équipe "éthique et société," dont la mission était d'assurer l'utilisation sécurisée des technologies développées par l'entreprise.</p><p>Une régulation stricte et une surveillance renforcée voire une interdiction totale sont demandées pour encadrer l'utilisation de ChatGPT afin de protéger les utilisateurs et la société, tout en permettant une innovation éthique et sécurisée. En signant cette pétition, nous appelons à des mesures concrètes pour prévenir les abus potentiels et maximiser les avantages de cette technologie de manière responsable.</p><p>Merci pour l'attention qui sera apportée à cette pétition.</p>