Projet expérimental créatif de La Science Musicale, explorant les correspondances entre les chants d'oiseaux (ou autres sons naturels) et des formes visuelles abstraites générées automatiquement.
- Convertir un son enregistré (bioacoustique, oiseau, amphibien…) en représentation abstraite numérique (embedding audio).
- Générer une visualisation abstraite en 3D à partir de cet embedding.
- Synchroniser précisément audio et visuel pour obtenir des vidéos abstraites immersives.
- Python (AudioCLIP) : extraction d'embeddings audio.
- Swift/Xcode/Metal ou SceneKit : visualisation abstraite synchronisée à l'audio.
- Export vidéo final (Instagram, installations artistiques).
- WebGl - Html
# Générer embeddings audio
cd python
python audio_to_embedding.py ton_son.wav