Biernes Geometri

Biernes geometri - en koncert-happening ifm udstillingen "I et landskab"

Koncert – performance 7/9 2025

Efter min performance “Korkelmens Dialekt”, blev jeg inspireret af Mortens værk med bierne. Jeg undersøgte, hvad det lige er, bier gør, når de kommunikerer, og blev mindet om, at de jo laver deres “dans”. På engelsk: “Waggle Dance”. Kort sagt går det ud på, at en bi, der har fundet en fødekilde, ved tilbagekomsten til bistaden laver en slags kodet bevægelsesmønster, som meget præcist kommunikerer 1) afstanden til, 2) retningen til og 3) beskaffenheden af fødekilden. Dansen foregår i et ottetal, på bikubens lodrette væg og retningen ift op (modsat tyngdekraften) angiver retningen af fødekilden ift solen. Varigheden af dansens midterste del angiver afstanden, således at 1 sekund svarer til ca. 1 km (alt afhængigt af vindmodstand, etc).

Dette fænomen inspirerede mig til at tænke: Jeg vil være en arbedjderbi, der laver en “waggle dance” for at fortælle fællesskabet om de forskellige (åndelige) fødekilder, denne udstilling byder på!!

Solens placering ved performancen 7/9 kl. 14.15. De stiplede linjer viser afstand fra Mortens værk til de andre værker, samt vinklen ift solens stilling. Sum sum.

Så jeg har travlt! Arbejderbitravlt! Fra min første performance er der 22 dage til at jeg skal performe denne waggle dance!

Grundideen er, at jeg sætter mobilen på min klarinet, og fra den sender en live strøm af data til computeren med klarinettens retning, op-ned og side-til-side. Og når jeg så peger i retning af et af de udstillede værker, åbner jeg for en generativ lyd-arkitektur, som jeg har programmeret til værket. Lyd-arkitektur, fordi jeg har fastlagt nogle mulige tonehøjder, varigheder, filtre, mm., som jeg kan aktivere, og påvirke med klarinettens bevægelser. Som at bevæge sig rundt i et hus og fremhæve forskellige rum, dekorationer, møbler, etc. Generativ, fordi jeg bruge styret tilfældighed, (Markov), til at variere de konkrete lydforløb, du vil høre. Lydene skabes af en modulær analog synthesiser, og på den måde har jeg et relativt begrænset instrument at lege med (begrænset ift computerens uendelige muligheder for lyd-syntese). Et godt benspænd, som fordrer kreative løsninger (hvis ikke det hele skal lyde ens!).

Nr. 3 Freja “ANDETSTEDS” & nr. 15 Dorte “ÖDE”

Frejas og Dortes værker er på mange måder forskellige, men de har det til fælles, at de består af en masse mindre dele, af meget forskellig beskaffenhed, som er sat samme i landskabet.

Jeg tænkte på, at jeg ville lave en slags virtuel lydskulptur ud af hvert af deres værker. Ved at bevæge klarinetten op-ned og vrikket højre-venstre kan jeg navigere rundt i lydskulpturen og aktivere forskellige dele.

Jeg lavede optagelser af de materialer, som skulpturens dele består af, og lavede en analyse af deres lydlige karakteristika.

Her har jeg klippet forskellige dele af Frejas værk ud
… og her er deres repræsentation til computeren.

For at kunne aktivere de forskellige lyde, som hører til de forskellige skulpturelle dele har jeg lavet en forenklet repræsentation med klare farver. Jeg sender live data fra min mobil, fastgjort til klarinetten, og når jeg bevæger klarinetten op-ned, side-side, bevæger jeg, hvad der minder om en cursor rundt i billedet; når cursoren f.eks. er over farven grøn, aktiveres den lyd, som jeg har gemt til Frejas keramiske skulptur. Osv. På den måde kan jeg bruge klarinetten som en slags trommestik, der spiller på forskellige skulpturdele..

Nr. 6 Claus “BJARNAVI TAT LOH”

Claus’ værk står som en nærmest alien efterladenskab midt i landskabet, og man tænker: “Hvad laver den der?”. Det får mig til at tænke på den sonde, mennesket har sendt ud i rummet, med nogle geometriske figurer, osv., og som jeg tænker, at en fremmed intelligens nok ikke vil fatte meget af…

Den såkaldte Pioneerplade, sendt med Pioneer 10 og 11 i 1970erne. Ligheden mellem linje-figuren til venstre, og min egen linjefigur ovenfor er ikke-intenderet, – men alligevel et påfaldende sammenfald. Tjek også Freyas værk…I øvrigt interessant, at de kære udenjordiske væsener skulle forestille sig en Planet udelukkende beboet af hvide mennesker..

Nuvel, der er ikke meget i Claus’ værks form, omtalen af det i kataloget – og da slet ikke dets titel – som giver noget hint til mig som beskuer/fremmed intelligensform.

For at finde en vej til dette værk gik jeg i ‘kødet’ på denne del af det:

Det er en aluminiumsplade, og der er ligesom banket nogle huller i, fra den ene og den anden side. Hullerne danner figurer, som ser ud til at være placeret ud fra lodrette/vandrette og diagonale logikker. Figurene er rektangler, cirkler og rette linjer. Og så en figur, jeg ikke kendte navnet på, men som lader til (iflg. google osv) at være en såkaldt “stadium” (eng). Wikipedias illustration af denne form matcher ret godt Claus’ form:

Denne form kommer i 3 forskellige stillinger: vandret, lodret og diagonalt. Jeg tænkte: lad os forestille os, at hullerne udgør toner og varigheder. Afstanden fra et hul til det næste, vandret udgør en varighed; lodret en tonehøjde. På den måde får vi et loop af toner med forskellige varigheder, dvs en melodi. Jeg forestillede mig så, at jeg kunne lade denne form->melodi eksistere virtuelt i min computer, og at jeg, med klarinettens bevægelser, kunne ‘dreje’ den rundt. På den måde, ville betydningen afstanden mellem punkterne gradvist ændre sig, og varigheder ville blive fortolket som tonehøjder og vice versa.

Dette er en tænkning, som jeg selv har fået inspiration til, ved at arbejde med analoge synthesizere. Dette er en verden af spændinger – volt – hvor den samme spænding kan bruges til det ene øjeblik at kontrollere tonehøjde, det næste varighed, det næste klang, etc.

Nr. 7 Johanne “TÅREKAR”

Johannes værk består af 5 keramik-kar. Jeg optog lyden af hvert af dem, ved (forsigt!!) at dikke til dem med fingeren. Jeg analyserede lydene og programmerede grund- og overtoner ind i maxmsp. Rent teknisk har jeg (gen)opdaget metoden wavetable synthesis. Jeg har tidligere stødt på denne metode, men har ikke oplevet den som meningsfuld for mig, indtil nu. Hvorfor? Fordi jeg har givet mig selv det kæmpestore benspænd kun at skabe lyd med (et meget primitivt) modulært synth-setup. Her har jeg kun mulighed for at sende 1 værdi ad gangen til at styre tonehøjde. Så normalt kan jeg kun får synthen til at lave 1 tone ad gangen, f.eks. et C. Hvordan så få synthen til at lave mere komplekse, overtonerige klange? Svaret er wavetable synthesis. Jeg har lavet en meget lille ‘lydoptagelse’ med kun 5 samples: grundtonen og 4 overtoner. Denne ‘lydoptagelse’ bliver så afspillet ind i synthen, hurtigt, og synthen får på den måde ‘besked’ på at spille, hvad der i langsom gengivelse ville være en arpeggio. Men hurtigt afspillet bliver de ellers adskilte toner, til én samlet klang. Lyder det som Johannes tårekar? Nok ikke helt. Men det er et bud på en dialog med værket. Og måske får klangende en klagende karakter, som går i spænd med tårekarenes essens?

Øverst: Klangen af et af lerkarrenes overtoner ‘oversat’ til 5 samples. Nederst de samme overtones amplitude.

Nr. 12 Hartmut “OPERATION HVEPSESALAMANDER”

Her valgte jeg at bruge en alm Stor Salamanders ‘hanekam’, som en form til at skabe tonehøjde- og varighedsforløb. Jeg brugte softwaret https://automeris.io/wpd/, hvor man kan plotte (x,y) par ind på et billede, og trække dem ud som et datasæt.

Jeg valgte at sige x=varighed, y=tonehøjde; for hver ‘tak’ i hanekammen får du så en ‘tone’ til en melodi, hvor tonen gilder opad til et skarpt knæk; Salamanderen laver ikke lyd. Det gør hvepse til gengæld. Så for at lave en virtuel, lydlig, hvepsesalamder blev det til, at salamanderens form udgør lydarkitekturens form (dvs. melodi), og hvepsens lyde (en summen på 170 – 200 hz) udgør selve lydens klang og omfang.

Nr. 14 Regitze “IMELLEM SANDET”

Når jeg ser Regitzes skulptur, er der med det samme noget, der sker, rent lydligt. De her tentakler, eller nervetråde, eller navlestrenge, som trækkes ud af, bores ned i, eller vokser sammen med gruset får mig til at høre lyde, der bevæger sig fra skulpturens ‘hoved’ og ned i jorden. Lydarkitekturen til dette værk består derfor bla. af 5 tonebevægelser, som går oppefra – ned, i en glidende bue. Tonehøjden er bestem af skulpturens (dumpe og dybe) klang.

En ‘forpremiere’, hvor jeg (hjemme) tester hele mit setup af…

Korkelmens Dialekt

Performance 16/8 2025

Til denne performance lytter du til lyden fra et korkelmetræ. Ved hjælp af en særlig mikrofon, der er fastgjort til træet, forstærkes træets indre vibrationer, dets vibroscape. Disse vibrationer er så svage, at vores ører ikke kan opfange dem uden hjælp. Ligesom et mikroskop gør det muligt at se meget små ting, gør denne mikrofon det muligt at lytte til de meget små lyde fra træets indre. 

Her kan du se en video fra performancen 16. august 2025, i regi af udstillingen “I et landskab”.

Ugen forinden optog jeg lyde fra det selvsamme træ. Lad os forestille os disse lyde som træets minder. Når jeg til performancen træder på en pedal, bliver de gemte lyde aktiveret af træets aktuelle vibrationer. Det er, som om træet genkalder sig sine minder og deler dem med os.

Jeg deltager i denne ‘samtale’ med min klarinet. Og vi –  træet og jeg – udfolder en dialog, en  fælles improvisation, sammen. 

At lytte til planternes indre liv er dybt fascinerende, og jeg oplever, at det kan skabe en helt ny forståelse for disse væsener, vi deler jorden med. Kunsten, og især musikken, kan være en måde at udforske og udvide denne forståelse på. Hvad kan vi lære af planternes dialekter – og specifikt af korkelmens dialekt i dag?

God fornøjelse med lytningen!

TRÆETS DIALEKT

Mycelium & Sound Collectives

Sommeren 2024 – Dansk Komponistforening og Mads Pagsberg har taget initiativ til projektet “Dialogisk Komposition”, hvor komponister inviteres til at skrive for bigband.

Jeg har været heldig at blive udtaget til projektet, og jeg bidrager med værket “Mycelium and Sound Collectives”.

Her er en video, som forklarer om mit værk, om tankerne bag, og om, hvad musikerne har brug for at vide for at kunne forberede sig til at spille det.

‘Spilleregler’/partitur

Gruppe 1 (JORD)- Klaver, Basbasun, Kontrabas

Gruppe 1 Lyd (melodisk klods og akkordklods)

Gruppe 2 (STEN) – Baritonsaxofon, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 2 Lyd (melodisk klods og akkordklods)

Gruppe 3 (TRÆ) – Altsaxofon, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 3 Lyd (melodisk klods og akkordklods)

Gruppe 4 (VAND) – Klarinet i Bb, Trompet i Bb, Basun, Sanger, Slagtøjsspiller

Gruppe 4 Lyd (melodisk klods og akkordklods)

Gruppe 5 (LUFT) – Fløjte, Sopransaxofon, Trompet i Bb, Sanger, Slagtøjsspiller

Gruppe 5 Lyd (melodisk klods og akkordklods)

Trompetrollen

Tak til #DANSKKOMPONISTFORENING for at tage initiativet.

Dansk Komponistforenings Logo

VLOG 4: Nearing True Machine-Musician Interaction? Exploring Rhythm through Fractal Proportions

We are nearing our objective of enabling our computer to interact with a live musician in a manner that closely resembles the interaction with another musician. In this fourth vlog, we explore the user interface developed by Samuel Peirce-Davies, which employs the ml.markov object to learn music from MIDI files. Our aim is to extend this functionality to accommodate music played by a live musician, which we’ve found requires certain adjustments.

Specifically, we’ve discovered that the realm of rhythm, or the temporal aspect of music, necessitates a distinct approach beyond the straightforward, millisecond-based logic. The key lies in thinking in terms of PROPORTIONS. Essentially, we’re dealing with the relationship between pulse and rhythm. This relationship needs to be quantized into a limited number of steps or index numbers that can be input into the Markov model.

Vlog 4

To achieve this, I’ve employed what might best be described as a fractal approach. We’re investigating the interaction between pulse and rhythm, moving away from a linear methodology that divides the pulse into equally spaced steps. Instead, we aim to determine the proportion, leading us to work with a list of fractions that divide the beat into segments like 1/6, 1/4, 1/3, 1/2, and so on.

By setting the maximum rhythmic duration to 4/1 of a beat, we have distilled the complexity down to just 13 different index values. This is in contrast to an equal steps approach, which would yield 48 index values if each beat were divided into 12 equal parts.

Consider whether you would truly notice a difference between a duration of 48/48 versus 47/48. Likely not, which illustrates why 13 index numbers are more meaningful to the Markov model compared to 48. This is especially relevant when considering Samuel’s approach, where any duration, measured in milliseconds, could potentially be integrated into the Markov model.

Sketch to a fractal concept of rhythmical proportions, turning rhythm into 13 index values to be fed into the markov model.

Update, 2024-02-17

After quite some messing around with geogebra, sheets, papir&pencil, I’ve come up with a visual representation of the fractal like structure of the duration index values.

It’s based on the series of duration fractions dividing the beat into triplets and quadruplets following the logic of double value, then dotted value, etc. Here is the series of fractions: 2/12 3/12 4/12 6/12 8/12 9/12 12/12 16/12 18/12 24/12 32/12 36/12 48/12

And here is how these fractions will look when ‘translated’ into squares with a common center:

Notice the self similarity (IE fractal-ness) of the proportion between the blue, pink and brown squares at each level.

If you want a closer look at the maths behind this graphic, here’s the geogebra-patch, I’ve made.

Useful links:

Kant I? – Does improvising improve self-esteem?

Does the capacity for improvising and listening to improvised music improve a person’s (and a society’s) self-esteem? And what might the philosophy of Emmanuel Kant add to this question?

In this episode, composer Casper Hernández Cordes draws on his own experiences with improvisation teaching to reflect on the relation between open artistic practices and selfhood.

The background music to the podcast is an improvisation in itself by the composer, ‘commenting’ on the content of the podcast.

Listen to improvisations dealing with these ideas here: https://soundcloud.com/chcordes/sets/kant-i

Music as an ecosystem?

What happens if we create and experience music as a kind of ecosystem?

Improvising on the piano, using what I would call intuitive intelligence, I am developing a method for using my body, hands, arms, and mind to create a kind of sound ecosystem.

This is how this improvisation came into existence:

Next step is to make a score, a transcription of the improvisation. Check it out here.

The score as a map of the ecosystem. A map that can be explored, researched, studied, expanded, etc. Putting the score in front of me on the piano, I made ‘journeys’ into the ecosystem, resulting in a number of variations on the composition.

A traditional format – theme and variations. In nature, we are talking organisms interacting in an ecosystem, and evolving, mutating, adjusting, etc.

Listen to the variations here:

Please share your thoughts about the variations. Help me decide which (parts) to develop further. Comment on the tracks, in the tracks. Thanks! 🙂

Composición improvisada en grupos – nuevas experiencias

En enero – febrero 2016 estoy en la residencia de artistas de la fundacion Lugar a Dudas, en Cali, Colombia.

Durante mi estancia tengo la oportunidad de dar talleres en la Universidad del Valle y el Instituto Departemental de Bellas Artes.

En este video se puede ver estudiantes de música de la Universidad del Valle participando en un taller de composición improvisada en grupo.

Antes del taller di una introducción al marco conceptual:

Marco conceptual del taller de composición improvisada

(Hazle clic al imagen para ver en mas grande)

En mi experiencia hay una tendencia en mis talleres que la gente se divierten mucho. No obstante tengo esta pequeña inquietud que los participantes van a quedarse con eso – el entretenimiento, nada mas.

Con este marco conceptual mi esperanza fue que se den cuenta de lo serio que es ‘jugar’, y cuales son las relaciones con la vida ‘real’ y sus representaciones.

Inspirado por el filosofo francés Paul Ricour, el papel presenta en forma de diagrama la relación entre el campo practico, o la ‘vida real’ con todos sus acciones e interacciones, el orden paradigmático, en qué almacenamos nuestra conocimiento de cuales son las posibles combinaciones de las acciones y el orden syntagmático, qué tiene que ver con las representaciones actuales, es decir las obras de arte, las telenovelas, los narativos, composiciones etc., es decir formas de combinar lo potencial del orden paradigmático en algún tipo de composición que puede influenciar el campo practico de alguna forma, positiva o negativa.

Ver la introducción al marco conceptual:

It’s alive!! – a collaborative “living album”

Did you ever wonder why live music is so much more exciting than listening to music in your living room? Isn’t it partly because the music you download from iTunes or stream from Spotify is exactly the same each time you listen to it? No surprises!

Recorded music just keeps repeating the same old patterns not caring about who is listening, when, where and how often. Just like some halfway autistic aunt who babbles about herself for hours, not aware that everyone else is sick and tired of listening to the same stories over and over again.

Barefoot Records is a collective of improvisors and composers, who are very active on the Danish music scene. As a  proud part of this collective, I have engaged in a journey that will explore ways of challenging the way we publish and distribute music.

Read about the project here: Publishing music as a living eco-system

First step in this journey is to develop a “living album”. This is a pilot project, and we – the artists at Barefoot Records – are inviting you to collaborate!

You might have heard about crowdfunding? Would you like to be part of a crowdsourcing experiment? You are hereby invited to take part in a collaboration, where anyone on the Web can pitch in with ideas in a creative effort to break new ground in the way we listen to and conceive of music!!

This is how it works:

  1. The Barefoot artists are recording a series of improvisations. In each take a single musician is improvising freely.
  2. The takes, – let’s call them soundscapes –  are released on soundcloud.com, please visit the set here.
  3. On Soundcloud, you can comment on the soundscapes, in the sound itself. For each comment, we open a small discussion, and we can add links to other comments, thus building conceptual connections between different parts of the soundscapes. Please share your comments about the improvisations, giving special attention to
    1. what images/ambiences/atmospheres/landscapes do the soundscapes evoke? Where are the aesthetic bridges between the soundscapes? Which parts match, and how? This will help us build banks of sounds, that we can combine in different ways, according to the musical imagery they evoke.
    2. how do you perceive the overall forms of the improvisations? If you consider each improvisation as a narrative, what is the form of the story? These analyses will give us some macro-forms to use when programming the generic structural elements of the album.
    3. imagine that you are listening to the final “living album”. The sounds will combine according to the above mentioned banks of sound and the macro-forms, in a way that is dependent on what happens at the specific time and place where you listen. In which way would it make sense for the sounds to interact with your environment? When programming the album, we can play with time, place, and we can connect with the computer’s “sensors”, i.e. camera, microphone, as well as streams of data from the Internet.
  4. After this process of crowdsourcing, of co-creating the collective living work of sound art, composer Casper Hernández Cordes will compile sounds, forms and interaction patterns in a living album, an application, that you can download for free. Every time you open the application on your computer, you will hear new pieces.
  5. The app will enable you to save the pieces, and you are invited to upload them to soundcloud. There, you will comment on the piece, and on the living album, sharing your experiences with the community of co-creators.

How about that? Click here, and you can participate! Join us! Comment! Share! Create!

Anthropomorfer – a tool for intercontinental collective sound art improvisation?

We are all virtuosos with our voices. Imagine being able to improvise over the sounds around you using your voice as an infinitely fine-tuned  controller. While  real time jamming with someone on the other side of the planet.

The mission is: I want to find the optimal tool to allow people to improvise sound art in collectives across the planet, in a creative, pleasurable, and reflective way. I have developed the Anthropomorfer as a desktop application, allowing collectives to improvise, while being in the same place. Now, I want to extend the functionality from a local wifi based context to a global web-based one.

The tool is intended for anyone interested in working with sound as a means for expression, but these contexts are of special interest:

  • working with children developing their analogue literacy and their divergent thinking
  • in organisations enhancing communication skills

What will the participant experience:

1) Open your app. Start a group or sign up for one. Select a sound, either by recording it on the spot, or from a database of sounds that other users have chosen. 2) You now hear your audio while viewing it as a waveform on your smartphone. You choose which part of the sound you want. 3) When all the participants in your group has chosen and cut their sound, start your session 3… 2… 1…. and:  4) improvise together. You can turn volume up and down, pan, and you can shape your sound with your voice via the phone’s microphone. 5) afterwards, you listen to the improvisation, give it thumbs up or down, and if a majority votes for it, the improvisation is saved on the server. Here you can comment and discuss it.

What lies behind:

Technically, there must be a server where the program runs, and audio files are stored. From each cell phone the server receives  1) an upload of a short sound file (max. 15 seconds). Or a selected audio file, which is already on the server. 2) A flow of analysis of the voice. Not the voice. Just analysis of pitch and volume. The server streams audio from the collective improvisation to the participants.

____________________________________________

Do you want to microsponsor akutsk?