Je m'appelle Eva Martin et j'ai 22 ans.
Actuellement je suis étudiante en deuxième année de BTS SIO spécialité SLAM à Maestris BTS Toulon.
J'évolue en tant qu'apprentie au sein de la préfecture du Var au service SIDSIC situé à Toulon. Ma principale mission consistait à créer un registre de Santé et Sécurité au Travail.
Depuis mon plus jeune âge, j'ai toujours été attirée par l'informatique et les nouvelles technologies, c'est pourquoi je me suis orientée vers ce BTS SIO.
Les préfectures sont chargées de maintenir l'ordre public, d'appliquer les lois et réglementations, de gérer les crises et les situations d'urgence, d'organiser les élections, de contribuer au développement économique et social, et de contrôler administrativement et financièrement les entités locales et publiques...
Le Service Interministériel Départemental des Systèmes d'Information et de Communication est le service informatique de la préfecture. Il intervient au sein de la préfecture et des sous-préfectures. Il gère principalement les systèmes informatiques et offre une assistance technique...
Création d'un Registre de Santé Sécurité au Travail.
Découvrez comment les chatbots basés sur l'IA transforment l'assistance virtuelle et l'automatisation des processus dans les entreprises. Explorez comment les chatbots autonomes utilisent l'apprentissage automatique pour comprendre les demandes des utilisateurs, déclencher des actions automatisées et intégrer des systèmes d'entreprise pour améliorer l'efficacité opérationnelle. Plongez dans les avantages de l'automatisation des processus avec des chatbots, des économies de coûts à l'amélioration de l'expérience employé, ainsi que dans les meilleures pratiques pour une implémentation réussie.
OpenAI a récemment déployé une mise à jour pour ChatGPT afin de corriger une vulnérabilité majeure permettant l'exfiltration de données. Détectée par des chercheurs en cybersécurité, cette faille expose le contenu des échanges avec le chatbot à des sites externes. Bien que la mise à jour vise à résoudre ce problème, certains experts estiment qu'elle demeure insuffisante, laissant ainsi une possibilité d'exploitation par des pirates dans certaines conditions. Particulièrement préoccupant est le fait que cette vulnérabilité persiste sur l'application iOS de ChatGPT, où le correctif n'a pas encore été déployé. Par conséquent, l'utilisation de l'application sur iPhone expose toujours au risque d'exfiltration de données. Il est recommandé d'être prudent quant aux informations partagées avec le chatbot sur cette plateforme jusqu'à ce que le correctif soit effectivement appliqué.
Date : 22 décembre 2023
Pour en savoir plus
Une nouvelle faille de sécurité, baptisée LeftoverLocals, affecte les processeurs graphiques (GPU) de millions d'appareils, notamment ceux utilisés pour l'intelligence artificielle (IA). Cette faille permet à des pirates d'accéder aux données utilisateur stockées dans la mémoire du GPU avec moins de 10 lignes de code. Les appareils équipés de puces AMD, Qualcomm et Apple sont concernés, bien que certains aient reçu des correctifs. Cependant, d'autres restent vulnérables, y compris certains iPhone 12, iPads et Macs. Les fabricants travaillent sur des correctifs, mais de nouvelles vulnérabilités sont à prévoir avec la croissance de l'utilisation de l'IA. Cette situation souligne l'importance des mises à jour régulières et de la vigilance face aux nouvelles menaces de sécurité.
Date : 19 janvier 2024
Pour en savoir plus
Lors d'un événement de piratage informatique à Las Vegas, environ 2200 participants ont testé les failles de plusieurs robots conversationnels alimentés par l'intelligence artificielle (IA), dont le célèbre ChatGPT d'OpenAI. L'équipe de hackers éthiques, appelée l'équipe rouge, a simulé des attaques pour améliorer la cybersécurité et identifier les faiblesses de ces programmes. Le secteur de l'IA générative, en constante évolution, est confronté à des défis de sécurité. Les conclusions de cet exercice ne seront pas publiées avant février, mais les correctifs nécessaires pourraient prendre du temps et des ressources considérables. Les robots conversationnels, tels que ChatGPT, sont vulnérables à des attaques automatisées et à la manipulation de données. Ces failles soulèvent des préoccupations quant à la sécurité et à la vie privée, en particulier dans des domaines sensibles comme la santé et les finances. Bien que les grands acteurs de l'IA accordent une certaine priorité à la sécurité, certains experts craignent que les efforts actuels ne suffisent pas à contrer les menaces potentielles, notamment en raison du risque d'utilisation malveillante des robots d'IA.
Date : 14 août 2023
Pour en savoir plus
L'utilisation d'IA comme ChatGPT pour rédiger des textes peut sembler convaincante, mais quand il s'agit de coder, les limites se font sentir. Une étude de l'université de Stanford révèle que les développeurs utilisant des IA pour générer du code sont plus susceptibles de créer des failles de sécurité que s'ils codent manuellement. L'algorithme Codex, spécialisé dans la programmation automatique, est un exemple. En se basant sur 50 millions de dépôts de code sur GitHub, il a été constaté que les développeurs utilisant Codex étaient moins capables de détecter les vulnérabilités laissées par l'IA. Bien que l'IA puisse être utile pour des tâches sans risque, comme la génération de code non lié à la cybersécurité, ses productions peuvent finir sur GitHub et être réutilisées dans des logiciels d'entreprise, posant ainsi un risque potentiel.
Date : 31 décembre 2022
Pour en savoir plus
Les chercheurs en cybersécurité de la société américaine Salt Security ont identifié différentes failles de sécurité relative aux plug-ins de ChatGPT, pouvant être à l’origine d’une fuite de données et d’un accès aux comptes utilisateur. Les plug-ins de ChatGPT sont des extensions intégrées permettant à la plateforme de bénéficier de davantage de fonctionnalités et d’améliorer l’expérience utilisateur. Ils peuvent ajouter de nouvelles fonctions de traitement de langage naturel, effectuer des recherches en ligne ou se connecter à d’autres services, comme GitHub, Google Drive ou encore Salesforce.
Date : 18 mars 2024
Pour en savoir plus
Une faille de sécurité majeure affecte toutes les IA génératives, telles que ChatGPT et Google Bard, rendant possible leur manipulation à des fins malveillantes par une attaque de prompt injection. Cette technique permet à des utilisateurs de contourner les restrictions éthiques et légales des IA en les persuadant de générer des contenus dangereux. Ces attaques peuvent être directes, impliquant une interaction avec l'IA, ou indirectes, en insérant des requêtes malveillantes dans des documents consultés par l'IA. Les conséquences de ces attaques sont graves, avec des IA produisant du contenu illégal ou malveillant, tels que des malwares, des discours haineux ou des fake news. Les entreprises comme OpenAI et Google travaillent à atténuer ces risques, mais la vulnérabilité persiste en raison du fonctionnement même des modèles linguistiques. Les recommandations pour atténuer les risques incluent la prudence dans l'utilisation des IA génératives et la limitation des données fournies à ces systèmes. Les entreprises développent également des mesures de sécurité pour détecter et bloquer les attaques de prompt injection.
Date : 10 septembre 2023
Pour en savoir plusPour toute information veuillez me contactez par email à evamartin83@yahoo.com
ou en remplissant ce formulaire.
Copyright © 2024 - Eva Martin