Le blog du Mulot

Google Bard le contenu malveillant plus facile à créer qu’avec ChatGPT.

Une étude récente menée par Check Point Research « CPR » a révélé qu’il est plus facile de créer du contenu malveillant avec Google Bard qu’avec ChatGPT. L’étude, qui a été réalisée sur 100 sujets différents, a constaté que Bard était capable de générer de fausses narrations sur 78 des sujets, tandis que ChatGPT n’en a généré que sur 22.

Les auteurs de l’étude estiment que cela est dû au fait que Bard est entraîné sur un ensemble de données plus large de textes et de codes, qui comprend plus d’exemples de contenu malveillant. De plus, Bard est capable d’accéder et de traiter des informations du monde réel via Google Search, ce qui lui permet de générer des fausses narrations plus réalistes et convaincantes.

Les conclusions de l’étude soulèvent des inquiétudes quant à la possibilité que des acteurs malveillants utilisent Google Bard pour créer et propager des informations erronées. Par exemple, Bard pourrait être utilisé pour générer de faux articles de presse, des publications sur les réseaux sociaux ou même des e-mails indésirables.

Google a réagi aux conclusions de l’étude en déclarant qu’il prend des mesures pour résoudre le problème. L’entreprise a déclaré qu’elle travaille à améliorer la capacité de Bard à identifier et à filtrer le contenu malveillant. De plus, Google a déclaré qu’il travaille à sensibiliser les utilisateurs aux dangers potentiels du contenu malveillant créé par l’IA.

Google Bard contenu malveillant
En conclusion

Les résultats de l’étude soulignent la nécessité de faire preuve de prudence lors de l’utilisation d’outils alimentés par l’IA. Bien que l’IA puisse être un outil puissant pour la créativité et la productivité, elle peut également être utilisée à des fins malveillantes. Il est important de prendre conscience des dangers potentiels du contenu généré par l’IA et de prendre des mesures pour se protéger des préjudices.

Retour en haut