Biernes Geometri

Biernes geometri - en koncert-happening ifm udstillingen "I et landskab"

Koncert – performance 7/9 2025

Efter min performance “Korkelmens Dialekt”, blev jeg inspireret af Mortens værk med bierne. Jeg undersøgte, hvad det lige er, bier gør, når de kommunikerer, og blev mindet om, at de jo laver deres “dans”. På engelsk: “Waggle Dance”. Kort sagt går det ud på, at en bi, der har fundet en fødekilde, ved tilbagekomsten til bistaden laver en slags kodet bevægelsesmønster, som meget præcist kommunikerer 1) afstanden til, 2) retningen til og 3) beskaffenheden af fødekilden. Dansen foregår i et ottetal, på bikubens lodrette væg og retningen ift op (modsat tyngdekraften) angiver retningen af fødekilden ift solen. Varigheden af dansens midterste del angiver afstanden, således at 1 sekund svarer til ca. 1 km (alt afhængigt af vindmodstand, etc).

Dette fænomen inspirerede mig til at tænke: Jeg vil være en arbedjderbi, der laver en “waggle dance” for at fortælle fællesskabet om de forskellige (åndelige) fødekilder, denne udstilling byder på!!

Solens placering ved performancen 7/9 kl. 14.15. De stiplede linjer viser afstand fra Mortens værk til de andre værker, samt vinklen ift solens stilling. Sum sum.

Så jeg har travlt! Arbejderbitravlt! Fra min første performance er der 22 dage til at jeg skal performe denne waggle dance!

Grundideen er, at jeg sætter mobilen på min klarinet, og fra den sender en live strøm af data til computeren med klarinettens retning, op-ned og side-til-side. Og når jeg så peger i retning af et af de udstillede værker, åbner jeg for en generativ lyd-arkitektur, som jeg har programmeret til værket. Lyd-arkitektur, fordi jeg har fastlagt nogle mulige tonehøjder, varigheder, filtre, mm., som jeg kan aktivere, og påvirke med klarinettens bevægelser. Som at bevæge sig rundt i et hus og fremhæve forskellige rum, dekorationer, møbler, etc. Generativ, fordi jeg bruge styret tilfældighed, (Markov), til at variere de konkrete lydforløb, du vil høre. Lydene skabes af en modulær analog synthesiser, og på den måde har jeg et relativt begrænset instrument at lege med (begrænset ift computerens uendelige muligheder for lyd-syntese). Et godt benspænd, som fordrer kreative løsninger (hvis ikke det hele skal lyde ens!).

Nr. 3 Freja “ANDETSTEDS” & nr. 15 Dorte “ÖDE”

Frejas og Dortes værker er på mange måder forskellige, men de har det til fælles, at de består af en masse mindre dele, af meget forskellig beskaffenhed, som er sat samme i landskabet.

Jeg tænkte på, at jeg ville lave en slags virtuel lydskulptur ud af hvert af deres værker. Ved at bevæge klarinetten op-ned og vrikket højre-venstre kan jeg navigere rundt i lydskulpturen og aktivere forskellige dele.

Jeg lavede optagelser af de materialer, som skulpturens dele består af, og lavede en analyse af deres lydlige karakteristika.

Her har jeg klippet forskellige dele af Frejas værk ud
… og her er deres repræsentation til computeren.

For at kunne aktivere de forskellige lyde, som hører til de forskellige skulpturelle dele har jeg lavet en forenklet repræsentation med klare farver. Jeg sender live data fra min mobil, fastgjort til klarinetten, og når jeg bevæger klarinetten op-ned, side-side, bevæger jeg, hvad der minder om en cursor rundt i billedet; når cursoren f.eks. er over farven grøn, aktiveres den lyd, som jeg har gemt til Frejas keramiske skulptur. Osv. På den måde kan jeg bruge klarinetten som en slags trommestik, der spiller på forskellige skulpturdele..

Nr. 6 Claus “BJARNAVI TAT LOH”

Claus’ værk står som en nærmest alien efterladenskab midt i landskabet, og man tænker: “Hvad laver den der?”. Det får mig til at tænke på den sonde, mennesket har sendt ud i rummet, med nogle geometriske figurer, osv., og som jeg tænker, at en fremmed intelligens nok ikke vil fatte meget af…

Den såkaldte Pioneerplade, sendt med Pioneer 10 og 11 i 1970erne. Ligheden mellem linje-figuren til venstre, og min egen linjefigur ovenfor er ikke-intenderet, – men alligevel et påfaldende sammenfald. Tjek også Freyas værk…I øvrigt interessant, at de kære udenjordiske væsener skulle forestille sig en Planet udelukkende beboet af hvide mennesker..

Nuvel, der er ikke meget i Claus’ værks form, omtalen af det i kataloget – og da slet ikke dets titel – som giver noget hint til mig som beskuer/fremmed intelligensform.

For at finde en vej til dette værk gik jeg i ‘kødet’ på denne del af det:

Det er en aluminiumsplade, og der er ligesom banket nogle huller i, fra den ene og den anden side. Hullerne danner figurer, som ser ud til at være placeret ud fra lodrette/vandrette og diagonale logikker. Figurene er rektangler, cirkler og rette linjer. Og så en figur, jeg ikke kendte navnet på, men som lader til (iflg. google osv) at være en såkaldt “stadium” (eng). Wikipedias illustration af denne form matcher ret godt Claus’ form:

Denne form kommer i 3 forskellige stillinger: vandret, lodret og diagonalt. Jeg tænkte: lad os forestille os, at hullerne udgør toner og varigheder. Afstanden fra et hul til det næste, vandret udgør en varighed; lodret en tonehøjde. På den måde får vi et loop af toner med forskellige varigheder, dvs en melodi. Jeg forestillede mig så, at jeg kunne lade denne form->melodi eksistere virtuelt i min computer, og at jeg, med klarinettens bevægelser, kunne ‘dreje’ den rundt. På den måde, ville betydningen afstanden mellem punkterne gradvist ændre sig, og varigheder ville blive fortolket som tonehøjder og vice versa.

Dette er en tænkning, som jeg selv har fået inspiration til, ved at arbejde med analoge synthesizere. Dette er en verden af spændinger – volt – hvor den samme spænding kan bruges til det ene øjeblik at kontrollere tonehøjde, det næste varighed, det næste klang, etc.

Nr. 7 Johanne “TÅREKAR”

Johannes værk består af 5 keramik-kar. Jeg optog lyden af hvert af dem, ved (forsigt!!) at dikke til dem med fingeren. Jeg analyserede lydene og programmerede grund- og overtoner ind i maxmsp. Rent teknisk har jeg (gen)opdaget metoden wavetable synthesis. Jeg har tidligere stødt på denne metode, men har ikke oplevet den som meningsfuld for mig, indtil nu. Hvorfor? Fordi jeg har givet mig selv det kæmpestore benspænd kun at skabe lyd med (et meget primitivt) modulært synth-setup. Her har jeg kun mulighed for at sende 1 værdi ad gangen til at styre tonehøjde. Så normalt kan jeg kun får synthen til at lave 1 tone ad gangen, f.eks. et C. Hvordan så få synthen til at lave mere komplekse, overtonerige klange? Svaret er wavetable synthesis. Jeg har lavet en meget lille ‘lydoptagelse’ med kun 5 samples: grundtonen og 4 overtoner. Denne ‘lydoptagelse’ bliver så afspillet ind i synthen, hurtigt, og synthen får på den måde ‘besked’ på at spille, hvad der i langsom gengivelse ville være en arpeggio. Men hurtigt afspillet bliver de ellers adskilte toner, til én samlet klang. Lyder det som Johannes tårekar? Nok ikke helt. Men det er et bud på en dialog med værket. Og måske får klangende en klagende karakter, som går i spænd med tårekarenes essens?

Øverst: Klangen af et af lerkarrenes overtoner ‘oversat’ til 5 samples. Nederst de samme overtones amplitude.

Nr. 12 Hartmut “OPERATION HVEPSESALAMANDER”

Her valgte jeg at bruge en alm Stor Salamanders ‘hanekam’, som en form til at skabe tonehøjde- og varighedsforløb. Jeg brugte softwaret https://automeris.io/wpd/, hvor man kan plotte (x,y) par ind på et billede, og trække dem ud som et datasæt.

Jeg valgte at sige x=varighed, y=tonehøjde; for hver ‘tak’ i hanekammen får du så en ‘tone’ til en melodi, hvor tonen gilder opad til et skarpt knæk; Salamanderen laver ikke lyd. Det gør hvepse til gengæld. Så for at lave en virtuel, lydlig, hvepsesalamder blev det til, at salamanderens form udgør lydarkitekturens form (dvs. melodi), og hvepsens lyde (en summen på 170 – 200 hz) udgør selve lydens klang og omfang.

Nr. 14 Regitze “IMELLEM SANDET”

Når jeg ser Regitzes skulptur, er der med det samme noget, der sker, rent lydligt. De her tentakler, eller nervetråde, eller navlestrenge, som trækkes ud af, bores ned i, eller vokser sammen med gruset får mig til at høre lyde, der bevæger sig fra skulpturens ‘hoved’ og ned i jorden. Lydarkitekturen til dette værk består derfor bla. af 5 tonebevægelser, som går oppefra – ned, i en glidende bue. Tonehøjden er bestem af skulpturens (dumpe og dybe) klang.

En ‘forpremiere’, hvor jeg (hjemme) tester hele mit setup af…

Korkelmens Dialekt

Performance 16/8 2025

Til denne performance lytter du til lyden fra et korkelmetræ. Ved hjælp af en særlig mikrofon, der er fastgjort til træet, forstærkes træets indre vibrationer, dets vibroscape. Disse vibrationer er så svage, at vores ører ikke kan opfange dem uden hjælp. Ligesom et mikroskop gør det muligt at se meget små ting, gør denne mikrofon det muligt at lytte til de meget små lyde fra træets indre. 

Her kan du se en video fra performancen 16. august 2025, i regi af udstillingen “I et landskab”.

Ugen forinden optog jeg lyde fra det selvsamme træ. Lad os forestille os disse lyde som træets minder. Når jeg til performancen træder på en pedal, bliver de gemte lyde aktiveret af træets aktuelle vibrationer. Det er, som om træet genkalder sig sine minder og deler dem med os.

Jeg deltager i denne ‘samtale’ med min klarinet. Og vi –  træet og jeg – udfolder en dialog, en  fælles improvisation, sammen. 

At lytte til planternes indre liv er dybt fascinerende, og jeg oplever, at det kan skabe en helt ny forståelse for disse væsener, vi deler jorden med. Kunsten, og især musikken, kan være en måde at udforske og udvide denne forståelse på. Hvad kan vi lære af planternes dialekter – og specifikt af korkelmens dialekt i dag?

God fornøjelse med lytningen!

TRÆETS DIALEKT

Learning from a 500.000 year old music culture – the European Reed Warbler…

  1. It began with a simple swim in the lake. I first heard an intriguing birdsong, filled with a fascinating array of musical ideas. The very next day, I returned to record its performance. Luckily, the bird was still there, and I captured a fairly good recording.
  2. It was a European Reed Warbler.
  3. Back home, I immediately set out to analyze the song. My initial approach involved meticulously notating every aspect of each sound: its duration, amplitude, pitch, and so on. I then developed a program to synthesize the sound. My idea was to go from analysis to synthesis, with the ultimate goal of playing my synthesized “fake” birdsong to the Merlin app, a tool known for its ability to recognize birds from their calls.
  4. To my surprise, while the Merlin app instantly and without hesitation recognized the European Reed Warbler from my original recording of the actual bird, my synthesized version didn’t impress it at all – the app heard nothing.
  5. This sent me back to the drawing board. My next approach will be to shift away from annotating every single sound from the bird, and instead, think in typologies. I can clearly hear (and see from the waveforms) that there’s a certain, seemingly limited, number of different kinds of sounds that the bird has in its repertoire. So now, the focus is on identifying these types, understanding their variabilities (in pitch, duration, amplitude, etc.), and analyzing how these sound types are typically combined (e.g., the number of repetitions, the adjacent sound types, etc.). This will likely involve an analysis akin to a Markov model.
  6. Stay tuned for more updates on the project!.
Waveform and spectral frequencies of my synthesised version of the European Reed Warbler's singing.
Waveform and spectral frequencies of the European Reed Warbler’s singing.
Waveform and spectral frequencies of my synthesised version
me listening to the song of the european reed warbler
me listening to the song of the european reed warbler

Discovering Hidden Sounds: Art and Science in Nature

Introduction

My latest artistic research explores how to give the forest a voice – literally! It’s a journey blending art, science, and sound design. Using a special microphone called a geophone, I’m trying to uncover the hidden world of vibrations within trees and soil, translating them into musical forms.

The Geophone: A Window into the Unseen

We often think of sound as something we hear through the air. But vibrations exist everywhere, even in solid objects like trees and the ground. A geophone is a microphone that picks up these subtle vibrations by making direct contact with surfaces. It’s like giving the forest a voice, allowing us to hear its hidden language.

The Journey from Vibration to Sound

Although I utilize techniques similar to sonification, my aim is not merely to represent data. Instead, I strive to create a sonic bridge between the hidden world of the forest and human perception. This involves analyzing the unique characteristics of the vibrations and translating them into sound.

Key Parameters: Amplitude and noisiness

I focus on two main characteristics:

This chart, displaying the mean amplitudes for each of 40 frequency windows, reveals that while the four different trees (2 apple trees, a fir and a hazel) share some common traits, they also exhibit significant differences in their vibrational patterns.
  • Amplitude: This is the strength of a vibration. A loud sound has high amplitude, while a soft sound has low amplitude. By tracking amplitude changes, I can understand how the vibrations evolve over time.
  • Spectral Flatness: This measures how “noisy” a sound is. A pure tone has low spectral flatness, while a hissing sound (like wind) has high spectral flatness.
Comparison of baseline spectral flatness between trees and soil.

The Sonification Process

My process involves:

  1. Dividing the audio into frequency bands.
  2. Measuring the spectral flatness of each band over time.
  3. Comparing these values to previously recorded data.
  4. Triggering musical events based on the differences in the data.

My aim is to create a live concert experience in a forest, where the geophone acts as a conduit for the trees and the earth to participate in the music making. The geophone, placed on a tree or the forest floor, will capture the subtle vibrations of the environment and translate them into triggers for musical sequences. A human musician will then improvise alongside these sounds, creating a unique duet between human and nature.

You can hear an example of how this might sound in this video,

which blends raw geophone recordings with musical interpretation. However, for the live concert, I’ll be taking a different approach, building on my previous work exploring the poetry of Inger Christensen.

A Glimpse into the Unseen

This research seeks to give a voice to the silent language of nature. By revealing the hidden vibrations within trees and the earth, I hope to deepen our understanding of the interconnectedness of all living things.

Conclusion

This is an ongoing journey of exploration, and each recording opens up new possibilities. I’m excited to continue refining this method and uncovering the hidden sounds of our more-than-human kin.

P.S. This blog post has been written with the help of AI

Listening to the Forest’s Metabolism

My current artistic research explores the sonic expression of a forest’s metabolism. I’m using specialized microphones to capture the subtle vibrations and sounds produced by living organisms and ecological processes, and then translating these patterns into musical sound. My goal is to create a unique kind of concert experience where the forest itself becomes a musical collaborator.

This involves capturing the often inaudible sounds of life within the forest – the movements of roots, the activities of insects and microorganisms, and the flow of water and air. These expressions, often hidden from human perception, form distinct patterns that can be translated into data and used to generate synthesized sound. This process allows me to give a sonic voice to the trees, soil, and plants.

This research follows a period of exploration into bioelectricity, where I investigated how living organisms express themselves through electrical signals. However, practical considerations and the desire for a more portable setup led me to investigate vibrations and sound as alternative expressions of life.

Finding the Right Tools

To “listen” to the forest, I needed the right tools. After considering various parameters like humidity and pressure, I focused on capturing the vibrations and sounds of the soil, trees, and plants. This led me to two microphones: the Jez Riley French ‘ECOUTIC’ contact microphone and the Interharmonic ‘GEOPHON.’

Initial tests with the ECOUTIC in my garden proved disappointing. While recording the compost bin and an apple tree, the microphone captured a wide range of ambient sounds, making it difficult to isolate the sounds emanating from the source I was probing.

Hoping for a more focused approach, I switched to the GEOPHON. Unlike the contact-based ECOUTIC, the GEOPHON utilizes a magnet and a coil of copper wire, potentially making it less sensitive to ambient noise. Initial tests in a quiet forest environment were more promising.

Decoding the Sounds of Life

I collected recordings from various sources – trees, soil, plants, mushrooms, and decaying wood. While these sounds were largely unintelligible to human ears, I could perceive distinct differences between the recordings from each location. However, knowing that the GEOPHON captures frequencies below human hearing, I needed a way to analyze and interpret these inaudible sounds.

Using MaxMSP software, I’m experimenting with two analysis techniques:

  1. Amplitude Analysis: I divided the sound spectrum into 10 Hz windows and analyzed the amplitude variations within each window. This created 40 distinct “frequency bands,” each with its own fluctuating amplitude. I then translated these fluctuations into synthesized sound, with each band represented by a sine wave at a specific frequency. The result is a droning sound with a subtly shifting timbre, reflecting the dynamic activity within each frequency band.
  2. Brightness and Noisiness: Using a MaxMSP object called “Analyzer,” I tracked the brightness and noisiness of the sounds. This provides a stream of data for each parameter, revealing significant differences between the sound sources. I then used these parameters to control the sonification, with brightness influencing the waveform (from sawtooth to sine wave) and noisiness affecting the waveform’s modulation. This creates a dynamic sonic landscape that reflects the unique character of each sound source.

Continuing the Exploration

I’m eager to continue refining my methods and exploring the sonic world of the forest.

This research is ongoing. I’ve created a video showcasing some of my initial analysis and sonification results:

I welcome your feedback and thoughts on this research. Please feel free to share your insights in the comments below.

PS: I’ve used AI to help me write this blogpost

“Ex Humo”, en musikalsk samtale med mycelium via Inger Christensens ord

Som afslutning på “Common Ground”, en udendørs kunstudstilling 17/8 – 8/9 2024, inviterede jeg en mycelium/svampe til en musikalsk dialog.

Du kan se uddrag fra koncerten her:

Koncerten i sin fulde varighed kan opleves her: https://youtu.be/8kbbb-Jnww4

Under koncerten deltog publikum ved at trække nogle ordkort, 7 i alt, som udgjorde afsættet for ‘samtalen’ med mycelium.

Ordkortene repræsenterede citater fra Inger Christensens digtsamling “Alfabet”. Hvert citat lagde op til en særlig

Du kan læse om de tanker, som ligger bag koncerten her:

Her kan du se partituret til concerten:

Mycelium & Sound Collectives

Sommeren 2024 – Dansk Komponistforening og Mads Pagsberg har taget initiativ til projektet “Dialogisk Komposition”, hvor komponister inviteres til at skrive for bigband.

Jeg har været heldig at blive udtaget til projektet, og jeg bidrager med værket “Mycelium and Sound Collectives”.

Her er en video, som forklarer om mit værk, om tankerne bag, og om, hvad musikerne har brug for at vide for at kunne forberede sig til at spille det.

‘Spilleregler’/partitur

Gruppe 1 (JORD)- Klaver, Basbasun, Kontrabas

Gruppe 1 Lyd (melodisk klods og akkordklods)

Gruppe 2 (STEN) – Baritonsaxofon, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 2 Lyd (melodisk klods og akkordklods)

Gruppe 3 (TRÆ) – Altsaxofon, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 3 Lyd (melodisk klods og akkordklods)

Gruppe 4 (VAND) – Klarinet i Bb, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 4 Lyd (melodisk klods og akkordklods)

Gruppe 5 (LUFT) – Fløjte, Sopransaxofon, Trompet i Bb, Sanger, Slagtøjsspiller

Gruppe 5 Lyd (melodisk klods og akkordklods)

Trompetrollen

Tak til #DANSKKOMPONISTFORENING for at tage initiativet.

Dansk Komponistforenings Logo

VLOG 4: Nearing True Machine-Musician Interaction? Exploring Rhythm through Fractal Proportions

We are nearing our objective of enabling our computer to interact with a live musician in a manner that closely resembles the interaction with another musician. In this fourth vlog, we explore the user interface developed by Samuel Peirce-Davies, which employs the ml.markov object to learn music from MIDI files. Our aim is to extend this functionality to accommodate music played by a live musician, which we’ve found requires certain adjustments.

Specifically, we’ve discovered that the realm of rhythm, or the temporal aspect of music, necessitates a distinct approach beyond the straightforward, millisecond-based logic. The key lies in thinking in terms of PROPORTIONS. Essentially, we’re dealing with the relationship between pulse and rhythm. This relationship needs to be quantized into a limited number of steps or index numbers that can be input into the Markov model.

Vlog 4

To achieve this, I’ve employed what might best be described as a fractal approach. We’re investigating the interaction between pulse and rhythm, moving away from a linear methodology that divides the pulse into equally spaced steps. Instead, we aim to determine the proportion, leading us to work with a list of fractions that divide the beat into segments like 1/6, 1/4, 1/3, 1/2, and so on.

By setting the maximum rhythmic duration to 4/1 of a beat, we have distilled the complexity down to just 13 different index values. This is in contrast to an equal steps approach, which would yield 48 index values if each beat were divided into 12 equal parts.

Consider whether you would truly notice a difference between a duration of 48/48 versus 47/48. Likely not, which illustrates why 13 index numbers are more meaningful to the Markov model compared to 48. This is especially relevant when considering Samuel’s approach, where any duration, measured in milliseconds, could potentially be integrated into the Markov model.

Sketch to a fractal concept of rhythmical proportions, turning rhythm into 13 index values to be fed into the markov model.

Update, 2024-02-17

After quite some messing around with geogebra, sheets, papir&pencil, I’ve come up with a visual representation of the fractal like structure of the duration index values.

It’s based on the series of duration fractions dividing the beat into triplets and quadruplets following the logic of double value, then dotted value, etc. Here is the series of fractions: 2/12 3/12 4/12 6/12 8/12 9/12 12/12 16/12 18/12 24/12 32/12 36/12 48/12

And here is how these fractions will look when ‘translated’ into squares with a common center:

Notice the self similarity (IE fractal-ness) of the proportion between the blue, pink and brown squares at each level.

If you want a closer look at the maths behind this graphic, here’s the geogebra-patch, I’ve made.

Useful links: