Skip to content
@ai-safety-saclay

P.I.A.F Saclay

Groupe de travail sur la fiabilité de l'IA du plateau de Saclay

image

⟶ notre discord
⟶ notre site web

Notre projet, c'est le P.I.A.F.

P.I.A.F est un groupe de travail autour de la sécurité et la fiabilité des systèmes d'intelligence artificielle. Il est entièrement géré par des étudiants de Paris-Saclay.

P.I.A.F signifie « Pour une Intelligence Artificielle Fiable ».

Activités

Notre groupe a deux activités principales :

Sensibiliser et changer le discours autour de la sûreté de l'IA

  • Participer à la création de conférences
  • Motiver les étudiants à intégrer la sûreté de l'IA dans leur carrière
  • Avoir autant que possible un impact médiatique

Démocratiser le domaine de recherche de la sûreté de l'IA

  • Proposer des groupes de lecture, des hackathons
  • Lancer des projets sur la sécurité de l'IA au sein des écoles
  • Aider autant que possible dans la création et le développement de startups d'audit des systèmes d'IA

Raison d'être

Jusqu'à il y a quelques années, l'IA était un outil qui nous assistait dans nos prises de décision. Ce n'est plus seulement le cas, et la tendance est très claire : dans le futur, les IA prendront énormément de décisions par elles-mêmes. Des IA feront toujours plus de recommandations sur les réseaux sociaux, guideront des juristes dans leurs décisions, participeront au processus de recrutement, organiseront nos agendas et enverront nos mails, seront responsables d'infrastructures de grande échelle, et seront prédominantes sur le web.

Notre mission n'est pas de vous dire si c'est une bonne ou une mauvaise chose. Ce qui est sûr, c'est que que les solutions techniques pour contrôler les IA et faire en sorte qu'elles respectent nos valeurs morales ne sont pas à la hauteur. Nous souhaitons que les étudiants aient une meilleure vision des challenges techniques et sociaux autour de l'IA : la robustesse, l'alignement, le contrôle.

Nous ne sommes pas militants pour une cause particulière. Notre but, c'est que les étudiants s'emparent de ces problèmes sociétaux et techniques, qu'ils participent au développement du domaine de la sûreté de l'IA et qu'ils puissent se faire leur propre idée des risques potentiels.

Nous aider

Nous sommes véritablement passionnés par le sujet de la fiabilité des IA, mais nous avons besoin de vous pour avoir le plus d'impact possible.

Vous pouvez d'abord partager l'intiative, et en parler à tous les étudiants du plateau de Saclay susceptibles d'être intéressés.

Vous pouvez venir discuter avec nous, pour approfondir le sujet et participer à nos groupes de lecture.

Rendez-vous sur la page contact.

Popular repositories Loading

  1. survey survey Public

    Sondage sur la sûreté de l'IA à destination des étudiants

    Python 5

  2. events events Public

    Évènements autour de la sûreté des IA sur le plateau de Saclay

  3. .github .github Public

    À propos de nous

  4. logo logo Public

    Les logos officiels du groupe

  5. blog blog Public

    Le blog du PIAF

    TypeScript

  6. site site Public

    HTML

Repositories

Showing 6 of 6 repositories
  • site Public
    ai-safety-saclay/site’s past year of commit activity
    HTML 0 0 4 0 Updated Nov 22, 2024
  • blog Public

    Le blog du PIAF

    ai-safety-saclay/blog’s past year of commit activity
    TypeScript 0 MIT 0 1 0 Updated Oct 31, 2024
  • .github Public

    À propos de nous

    ai-safety-saclay/.github’s past year of commit activity
    0 0 0 0 Updated Oct 18, 2024
  • logo Public

    Les logos officiels du groupe

    ai-safety-saclay/logo’s past year of commit activity
    0 0 1 0 Updated Sep 22, 2024
  • survey Public

    Sondage sur la sûreté de l'IA à destination des étudiants

    ai-safety-saclay/survey’s past year of commit activity
    Python 5 0 0 0 Updated Aug 19, 2024
  • events Public

    Évènements autour de la sûreté des IA sur le plateau de Saclay

    ai-safety-saclay/events’s past year of commit activity
    0 0 0 0 Updated May 29, 2024

Top languages

Loading…

Most used topics

Loading…