Stage en amélioration d’un système de détection de deepfake audio par une approche adversariale
Type de contrat : Stage
Niveau de diplôme exigé : Bac + 4 ou équivalent
Autre diplôme apprécié : M2 en IA, mathématiques, mathématiques appliquée ou informatique ou équivalent, avec une forte motivation pour la recherche appliquée
Fonction : Stagiaire de la recherche
Contexte et atouts du poste
Les avancées dans le domaine de l’IA ont entraîné la multiplication d’outils permettant de produire des « deepfakes » : le terme « deepfake » désigne la création de fausses images, vidéos, ou enregistrements audio à partir de techniques de deep learning. Dans le domaine de l’audio, la génération de deepfake a fortement progressé, notamment pour le clonage de voix. En effet, grâce à des outils libres ou commerciaux, il est désormais possible de créer un faux fichier audio réaliste à partir de quelques secondes d’enregistrement de la voix d’une personne. Une fois diffusés, ces deepfakes peuvent alors être utilisés de façon malveillante, par exemple dans le cadre de campagnes d’influence ou d’arnaques ciblées.
Par conséquent, la détection automatique de ces deepfakes est aujourd'hui un sujet de recherche très actif et de nombreux modèles ont été récemment proposés, montrant des performances de très bon niveau. Néanmoins, ces modèles peuvent rapidement devenir caduques en raison du développement permanent de nouvelles technologies de génération de deepfakes, ce qui demande des mises à jour régulières des modèles.
Ce cycle « nouvelle attaque – mise à jour » est classique, on le trouve par exemple dans le domaine des antivirus. Il est cependant mis en cause par l’arrivée d’attaques dites « adversariales », qui tirent partie des modèles de détection eux-mêmes pour générer des attaques encore plus réalistes.
Mission confiée
L’objectif principal du stage proposé est de mesurer l’impact potentiel des attaques adversariales dans le cadre de la détection des deepfakes audio. Un deuxième objectif sera d’améliorer la robustesse des modèles de détection de deepfakes audio à ces attaques adversariales.
Le travail sera décomposé en trois phases :
- Une analyse des différentes approches adversariales utilisées dans le cadre de la génération de deepfakes audio.
- Une analyse de l’impact des attaques sélectionnées dans le cadre de la détection automatique de deepfakes audio.
- La proposition de pistes d’amélioration des modèles de détection actuels, pour augmenter la robustesse à des attaques de type adversariales.
Le stage se déroulera au centre Inria Paris Sorbonne, rue Barrault, Paris 13, au sein d’un groupe de recherche spécialisé sur la parole et l’audio, composé d’une dizaine de chercheuses et chercheurs.
Ce stage est ouvert à des étudiantes étudiants de M2 en IA, mathématiques, mathématiques appliquée ou informatique ou équivalent, avec une forte motivation pour la recherche appliquée.
Compétences
Compétences attendues :
- Programmation Python
- Pratique d’une librairie type Pytorch, Keras, Scikit-learn
- Connaissances pratiques en apprentissage automatique
- Maîtrise de l’anglais
- Des connaissances en traitement automatique de la parole et/ou en génération automatique de contenus multimédia constitueront un plus.
Avantages
- Restauration subventionnée
- Transports publics remboursés partiellement
- Congés déterminés en fonction de la durée du stage
- Possibilité de télétravail (après 2 mois d'ancienneté)
- Équipements professionnels à disposition (visioconférence, prêts de matériels informatiques, etc.)
- Prestations sociales, culturelles et sportives (Association de gestion des œuvres sociales d'Inria)
- Accès à la formation professionnelle
Informations générales
- Ville : Paris
- Centre Inria : Siège
- Date de prise de fonction souhaitée : 2025-03-01
- Durée de contrat : 6 mois
- Date limite pour postuler : 2025-02-28
Attention: Les candidatures doivent être déposées en ligne sur le site Inria. Le traitement des candidatures adressées par d'autres canaux n'est pas garanti.
Consignes pour postuler
Sécurité défense :
Ce poste est susceptible d’être affecté dans une zone à régime restrictif (ZRR), telle que définie dans le décret n°2011-1425 relatif à la protection du potentiel scientifique et technique de la nation (PPST). L’autorisation d’accès à une zone est délivrée par le chef d’établissement, après avis ministériel favorable, tel que défini dans l’arrêté du 03 juillet 2012, relatif à la PPST. Un avis ministériel défavorable pour un poste affecté dans une ZRR aurait pour conséquence l’annulation du recrutement.
Politique de recrutement :
Dans le cadre de sa politique diversité, tous les postes Inria sont accessibles aux personnes en situation de handicap.
Contacts
- Équipe Inria : MIS-DEFENSE
-
Recruteur :
Arunraja Emilie / emilie.arunraja@inria.fr
A propos d'Inria
Inria est l’institut national de recherche dédié aux sciences et technologies du numérique. Il emploie 2600 personnes. Ses 215 équipes-projets agiles, en général communes avec des partenaires académiques, impliquent plus de 3900 scientifiques pour relever les défis du numérique, souvent à l’interface d’autres disciplines. L’institut fait appel à de nombreux talents dans plus d’une quarantaine de métiers différents. 900 personnels d’appui à la recherche et à l’innovation contribuent à faire émerger et grandir des projets scientifiques ou entrepreneuriaux qui impactent le monde. Inria travaille avec de nombreuses entreprises et a accompagné la création de plus de 200 start-up. L'institut s'efforce ainsi de répondre aux enjeux de la transformation numérique de la science, de la société et de l'économie.