Skip to main content

L’IA permet de créer des deepfakes très convaincants (images, vidéos, audios).

Ces outils peuvent manipuler l’opinion publique, diffuser de fausses informations, et tromper des foules, posant ainsi un risque grave pour la société.

Les deepfakes peuvent discréditer des individus ou des organisations en imitant parfaitement la voix d’une personne, leur faisant dire des choses qu’elles n’ont jamais dites.
Cela nuit à leur réputation et crédibilité, et peut déstabiliser des entreprises ou des institutions.

L’IA peut servir à usurper l’identité d’une personne via des voix de synthèse.

Cette usurpation peut entraîner des fraudes financières, des accès non autorisés à des informations sensibles ou des attaques ciblées contre des individus ou des entreprises.

biométrie-vocale-avancée
  • Algorithmes Performants : Création d’algorithmes avancés pour la détection précise des deepfakes.
  • Robustesse : Entrainement de modèles d’apprentissage profonds sur de larges corpus de voix de synthèses propriétaires.
biométrie-vocale-performante
  • Efficacité maximale : Nos outils sont conçus pour atteindre les plus hauts niveaux de détection.
  • Évolutivité : Solutions structurées pour évoluer avec le temps et s’adapter aux nouvelles menaces.
biométrie-vocale-adaptative
  • Sécurité Publique : Authentification des prises de parole de personnalités publiques pour prévenir les manipulations.
  • Protection des Entreprises : 
Renforcement de nos produits d’authentification et d’identification vocale contre les
    attaques de deepfakes.
  • Enquêtes : Assistance dans les travaux d’enquête pour détecter les tentatives de manipulation de masse.

Notre engagement envers l’avancement de la détection des deepfakes audio a été reconnu à l’international. Nous sommes fiers d’avoir obtenu la 4e place mondiale au prestigieux concours ASVspoof 2024 (open conditions), ce qui témoigne de l’efficacité et de la fiabilité de notre technologie de pointe. Notre solution est conçue pour se protéger contre la menace croissante des deepfakes audio, garantissant l’authenticité et la sécurité de vos communications et authentifications.

Nous bénéficions du soutien de partenaires prestigieux convaincus par notre expertise et nos solutions innovantes.
Grâce à une collaboration avec des acteurs majeurs comme la Direction générale de l’armement (DGA)
et l’Agence de l’Innovation de la Défense (AID), nous développons des technologies de pointe pour anticiper et contrer les menaces liées à l’IA.
Leurs financements et leur confiance témoignent de la crédibilité et de l’efficacité de nos solutions.
L’institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), est également un partenaire clé dans la conduite de nos projets innovants.

dga-aid-irisa-detection-voix-synthèse