Politique d'Intelligence Artificielle

Plateforme : Bilan+ — https://bilanplus.io Dernière mise à jour : 09/02/2026 Version : 1.0


Préambule

La plateforme Bilan+ intègre des modules d'intelligence artificielle (IA) pour assister les professionnels de l'accompagnement de carrière dans l'exercice de leur activité. La présente politique a pour objet de garantir la transparence, la maîtrise humaine et la conformité de l'usage de l'IA au sein de la Plateforme, conformément au Règlement (UE) 2016/679 (RGPD) et dans l'anticipation du Règlement (UE) 2024/1689 sur l'intelligence artificielle (AI Act).


Article 1 — Principes fondamentaux

L'utilisation de l'IA au sein de Bilan+ repose sur quatre principes :

1.1 Transparence

L'utilisateur est informé chaque fois qu'un contenu est généré ou assisté par l'IA. Les résultats issus de l'IA sont clairement identifiés comme tels dans l'interface.

1.2 Contrôle humain

Aucune décision automatisée au sens de l'article 22 du RGPD n'est prise par la Plateforme. Le Coach conserve en permanence la maîtrise de l'accompagnement. Les résultats de l'IA sont des suggestions soumises à la validation professionnelle du Coach avant toute communication au Candidat.

1.3 Sécurité et confidentialité des données

Les données transmises aux modèles d'IA sont strictement minimisées. Aucune donnée personnelle n'est stockée par le prestataire d'IA au-delà du temps de traitement de la requête.

1.4 Équité et non-discrimination

Les prompts et les contextes fournis aux modèles d'IA sont conçus pour éviter les biais discriminatoires. Les résultats sont présentés comme des pistes de réflexion, sans caractère normatif ou exclusif.


Article 2 — Cas d'usage de l'IA

L'intelligence artificielle est utilisée dans les cas suivants :

Fonctionnalité Description Modèle Contrôle humain
Synthèse de session Génération d'un résumé structuré d'une session d'accompagnement à partir des notes et échanges Claude (Anthropic) Le Coach valide, modifie ou supprime la synthèse avant partage
Analyse de compétences Structuration et enrichissement des compétences identifiées dans le portefeuille du candidat Claude (Anthropic) Le Coach et le Candidat valident les compétences retenues
Suggestions de métiers Proposition de pistes professionnelles en fonction du profil et des aspirations du candidat Claude (Anthropic) Le Coach évalue la pertinence des suggestions dans le contexte de l'accompagnement
Assistance conversationnelle Agent conversationnel assistant le Coach dans la préparation et la conduite de l'accompagnement Claude (Anthropic) Usage exclusivement professionnel du Coach, pas d'interaction directe avec le Candidat
Transcription de sessions Conversion de l'enregistrement audio d'une session en texte, avec identification des locuteurs Deepgram (Nova-3) Activation conditionnée au consentement explicite des participants
Import de CV Extraction structurée des informations contenues dans un CV téléversé Claude (Anthropic) Le Candidat et le Coach vérifient et complètent les informations extraites

Article 3 — Limites et avertissements

3.1 Nature des résultats

Les contenus générés par l'IA sont des aides à la réflexion. Ils ne constituent en aucun cas :

  • un diagnostic médical, psychologique ou psychiatrique ;
  • un avis professionnel se substituant à l'expertise du Coach ;
  • une décision automatisée produisant des effets juridiques ou affectant significativement la personne concernée.

3.2 Fiabilité

L'Éditeur ne garantit pas l'exactitude, l'exhaustivité ou la pertinence des contenus générés par l'IA. Les modèles de langage peuvent produire des informations inexactes (« hallucinations »). La validation humaine par le Coach est indispensable.

3.3 Absence de profilage décisionnel

Conformément à l'article 22 du RGPD, la Plateforme n'effectue aucun profilage conduisant à une décision automatisée produisant des effets juridiques ou affectant de manière significative les personnes concernées.


Article 4 — Données transmises aux modèles d'IA

4.1 Principe de minimisation

Seules les données strictement nécessaires au traitement demandé sont transmises à l'API du prestataire d'IA. Les données sont contextualisées et filtrées avant envoi.

4.2 Données transmises

Selon le cas d'usage, les données suivantes peuvent être transmises :

  • résultats agrégés des outils d'évaluation (scores, dimensions) ;
  • notes et résumés de sessions (rédigés par le Coach) ;
  • compétences et expériences du portefeuille ;
  • contenu des documents téléversés (pour l'extraction) ;
  • enregistrement audio (pour la transcription, vers Deepgram).

4.3 Données exclues

Ne sont jamais transmis aux modèles d'IA :

  • les mots de passe ou tokens d'authentification ;
  • les données de facturation ou bancaires ;
  • les identifiants techniques internes (IDs de base de données) lorsqu'ils ne sont pas nécessaires.

Article 5 — Prestataires d'intelligence artificielle

5.1 Anthropic (API Claude)

Élément Détail
Société Anthropic, PBC
Siège San Francisco, Californie, États-Unis
Modèles utilisés Claude Haiku (tâches rapides), Claude Sonnet (tâches courantes), Claude Opus (analyses complexes)
Stockage des données Aucun stockage au-delà du traitement de la requête (API usage policy)
Entraînement sur les données Non — les données transmises via l'API ne sont pas utilisées pour entraîner les modèles, conformément aux conditions d'utilisation de l'API Anthropic
Transfert hors UE Oui — États-Unis. Encadré par les Clauses Contractuelles Types (SCC)
DPA DPA Anthropic applicable

5.2 Mistral AI

Élément Détail
Société Mistral AI
Siège Paris, France (UE)
Usages (1) Génération d'embeddings vectoriels (mistral-embed) pour le matching sémantique de compétences et métiers ; (2) OCR (Mistral OCR 3) pour l'extraction de texte depuis les documents ; (3) Fournisseur de fallback pour les appels de complétion en cas d'indisponibilité d'Anthropic (résilience opérationnelle).
Modèles utilisés mistral-embed (embeddings), mistral-ocr-latest (OCR), mistral-small-latest / mistral-medium-latest / mistral-large-latest (chat de fallback)
Stockage des données Aucun stockage au-delà du traitement de la requête
Entraînement sur les données Non — les données transmises via l'API ne sont pas utilisées pour entraîner les modèles
Transfert hors UE Non — hébergement UE
DPA DPA Mistral AI applicable

5.3 Deepgram

Élément Détail
Société Deepgram, Inc.
Siège États-Unis
Modèle utilisé Nova-3 (transcription avec diarisation)
Stockage des données Aucun stockage après traitement
Transfert hors UE Oui — États-Unis. Encadré par SCC

5.4 Groq

Élément Détail
Société Groq, Inc.
Siège Mountain View, Californie, États-Unis
Modèle utilisé Whisper Large v3 Turbo (transcription audio, alternative à Deepgram)
Stockage des données Aucun stockage après traitement
Transfert hors UE Oui — États-Unis. Encadré par SCC

Article 6 — Observabilité et traçabilité

L'utilisation de l'IA est tracée via Langfuse (plateforme d'observabilité LLM, hébergée en UE) pour permettre :

  • le suivi des requêtes et des réponses de l'IA ;
  • la mesure de la qualité et de la pertinence des résultats ;
  • la détection d'anomalies ou de biais ;
  • l'audit des traitements IA.

Les traces sont conservées pour une durée maximale de 12 mois.


Article 7 — Droits des utilisateurs concernant l'IA

Conformément au RGPD, les utilisateurs disposent des droits suivants en lien avec les traitements IA :

Droit Modalité
Information L'utilisateur est informé de l'utilisation de l'IA et de la nature des données transmises
Accès L'utilisateur peut demander une copie des données le concernant transmises à l'IA et des résultats générés
Rectification Le Coach peut modifier ou supprimer tout résultat généré par l'IA
Opposition L'utilisateur peut demander que certaines fonctionnalités IA ne soient pas utilisées pour son accompagnement
Retrait du consentement Pour les fonctionnalités soumises au consentement (transcription audio), le retrait est possible à tout moment
Explication L'utilisateur peut demander des explications sur la logique sous-jacente aux résultats de l'IA

Pour exercer ces droits : theo@bilanplus.io


Article 8 — Conformité réglementaire

8.1 RGPD

L'utilisation de l'IA est conforme au RGPD, en particulier :

  • article 5 (principes de traitement, notamment minimisation et limitation des finalités) ;
  • article 13 (information des personnes concernées) ;
  • article 22 (absence de décision automatisée) ;
  • article 35 (analyse d'impact — AIPD recommandée pour les traitements de données sensibles assistés par l'IA).

8.2 AI Act (Règlement (UE) 2024/1689)

Au regard du Règlement européen sur l'intelligence artificielle :

  • Au regard de l'état actuel de l'analyse, et dans la mesure où les résultats de l'IA sont systématiquement soumis à une validation humaine par un professionnel qualifié (le Coach), l'Éditeur estime que les modules d'IA ne relèvent pas de la catégorie des systèmes à haut risque au sens de l'annexe III du Règlement. Cette classification sera réexaminée régulièrement à la lumière des lignes directrices de la Commission européenne et des autorités nationales compétentes.
  • L'Éditeur note que l'annexe III, point 4 du Règlement couvre les systèmes d'IA utilisés dans le domaine de l'emploi et de l'orientation professionnelle. La présence d'un contrôle humain systématique par le Coach, l'absence de décision automatisée, et le caractère d'aide à la réflexion des résultats constituent les éléments justifiant la classification actuelle.
  • Conformément à l'article 50 du Règlement, l'Éditeur informe les utilisateurs chaque fois qu'un contenu est généré par l'IA et identifie clairement ces contenus comme tels dans l'interface.
  • L'Éditeur s'engage à adapter sa politique en cas d'évolution de la classification ou des obligations réglementaires.

8.3 Analyse d'impact (AIPD)

Compte tenu du traitement de données potentiellement sensibles (résultats de tests psychométriques) par des modules d'IA, une Analyse d'Impact relative à la Protection des Données (AIPD) au sens de l'article 35 du RGPD a été réalisée. Elle couvre :

  • l'évaluation de la nécessité et de la proportionnalité des traitements IA ;
  • l'évaluation des risques pour les droits et libertés des personnes concernées ;
  • les mesures envisagées pour atténuer ces risques.

Conclusion de l'AIPD : Aucun risque résiduel élevé identifié. Les traitements sont autorisés sous réserve de la mise en œuvre du plan d'action. Consultation préalable de la CNIL non requise.

Consultez l'AIPD complète pour le détail de l'analyse.


Article 9 — Amélioration continue

L'Éditeur s'engage à :

  • évaluer régulièrement la qualité et la pertinence des résultats de l'IA ;
  • mettre à jour les modèles utilisés en fonction des évolutions technologiques et réglementaires ;
  • prendre en compte les retours des Coaches et des Candidats dans l'amélioration des modules d'IA ;
  • réviser la présente politique au moins une fois par an.

Politique d'Intelligence Artificielle rédigée conformément au Règlement (UE) 2016/679 (RGPD) et dans l'anticipation du Règlement (UE) 2024/1689 (AI Act).