Partager :

ChatGPT est une avancée passionnante dans le domaine de la technologie de langage. C’est un modèle de langage entraîné par OpenAI qui est capable de générer du texte à la demande en utilisant une intelligence artificielle de pointe.

Son nom vient de la combinaison des termes « chat » et « GPT », qui signifient respectivement « conversation » et « modèle de transduction de langage prédictif ». Cela reflète la capacité de ChatGPT à simuler des conversations humaines de manière convaincante. Les acteurs de la menace vont profiter de ChatGPT, selon un expert

Microsoft, les développeurs de logiciels, les organismes d’application de la loi, les banques, les étudiants qui rédigent des dissertations et presque tout le monde entre les deux pense pouvoir tirer parti de ChatGPT.

Mais  si ce chatbot basé sur l’intelligence artificielle est présenté comme le moteur de recherche qui détrônera Google, aidera les développeurs à générer un code sans faille, écrira le prochain grand tube du rock…, il est aussi tellement nouveau que les gens ne peuvent pas imaginer ce qu’il peut faire. Mais l’histoire montre que les escrocs et les États tenteront d’exploiter toute nouvelle technologie à leur avantage, et aucun professionnel de l’informatique ne devrait s’attendre à autre chose.

C’est pourquoi, selon un chercheur en menaces de la société israélienne Cyberint, ils ont intérêt à se préparer. Si ChatGPT aide les éditeurs de logiciels à écrire un meilleur code, dit Shmuel Gihon, il en sera de même pour les créateurs de logiciels malveillants.

Il ajoute que cela pourrait également les aider à faire de l’ingénierie inverse des applications de sécurité. « En tant qu’acteur de la menace, si je peux améliorer mes outils de piratage, mon ransomware, mon malware tous les trois à quatre mois, mon temps de développement pourrait être réduit de moitié ou plus. Ainsi, le jeu du chat et de la souris auquel jouent les fournisseurs de défense avec les acteurs de la menace pourrait devenir beaucoup plus difficile pour eux. »

Le « si » dans cette phrase n’est pas dû à la capacité de l’outil, a-t-il ajouté, mais aux capacités de l’acteur de la menace qui l’utilise. « L’IA entre de bonnes mains pourrait être un outil très puissant. Les acteurs professionnels de la menace, les groupes de ransomware et les groupes d’espionnage feront probablement un meilleur usage de cet outil que les acteurs amateurs.

« Je suis certain qu’ils trouveront de grandes utilisations à cette technologie. Elle les aidera probablement à faire de l’ingénierie inverse sur les logiciels qu’ils attaquent… à trouver de nouvelles vulnérabilités, et des bogues dans leur propre code, dans des délais plus courts. »

Et les pros de l’infosécurité ne devraient pas seulement s’inquiéter de ChatGPT, a-t-il ajouté, mais de tout outil piloté par l’intelligence artificielle. « Demain, un autre moteur d’IA sera publié », a-t-il noté.

« Je ne suis pas sûr que les fournisseurs de sécurité se soient préparés à ce rythme d’innovation du côté des acteurs de la menace », a-t-il ajouté. « C’est une chose à laquelle nous devons nous préparer. Je sais que l’IA est déjà intégrée dans les technologies de sécurité, mais je ne suis pas sûr qu’elle soit à ce niveau. »

Les fournisseurs de sécurité devraient réfléchir à la façon dont les acteurs de la menace pourraient utiliser ChatGPT contre leurs applications, a-t-il conseillé. « Si certains de mes produits sont open source ou si mon infrastructure frontale est construite sur le moteur X, je devrais savoir ce que ChatGPT dit de ma technologie. Je devrais savoir comment traduire les capacités de ChatGPT aux yeux des acteurs de la menace. »

Source : ITWorldcanada & Israël Valley

 

Partager :