2008/5/20 Mike McGonagle &lt;<a href="mailto:mjmogo@gmail.com">mjmogo@gmail.com</a>&gt;:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Just curious, Kassen, you used the word &quot;Mapping&quot; so much that is seems to have lost some sort of context. Might you give a description of what you mean, and maybe an example of what you do with it?<div><br></div>
</blockquote><div><br>Yes, of course!<br><br>What I mean is that on the one hand we have some sort of sound generating setup (say a few Ugens in our case) and on the other was have some input like MIDI, HID, a musical score or a table containing weather, tides and wildlife observed on a local beach over a month.<br>
<br>By &quot;mapping&quot; I mean the way the second is linked to the first, especially if this is done in a particularly interesting way. On a simple hardware synth you might for example link a high MIDI &quot;velocity&quot; to a higher filter-cutoff and shorter envelope atack-time. There it&#39;s fairly easy and straightforward (most of the time), it stands to reason that for weather and tides to become &quot;musical&quot; a bit of thought may be needed.<br>
<br>Now why it&#39;s important to me, some of this is personal obeservation, some of it known science. In accoustical instruments and in the &quot;real world&quot; in general a single factor will often affect the sound of a object in various ways at the same time. A sax, for example, may produce low, deep and sensitive notes and it gets louder when blown harder.... but you can&#39;t (easily) get tones that are loud as well as deep and sensitive because blowing it harder won&#39;t just affect volume but also the tone. Notes on the higher keys of the piano don&#39;t last as long as lower ones either, for example, despite centuries of research.<br>
<br>These linked parameters are limitations of acoustical instruments that electronocally we can get around with relative ease, but I wonder if sidestepping those limitations is always usefull. Typcally a sound gets generated by something acting on something else. The human ear (and hearing psychology) is very sensitive to this as it tells us a lot about our suroundings. If we hear a sound at night our survival may depend on determining very quickly whether it was made by something larger or smaller then ourselves and what it was doing so we -very quickly- try to analyse what makes the sound and why it made it. We turn out to be quite good at this, if we weren&#39;t we wouldn&#39;t be here anymore.<br>
</div></div><br>So; acoustical instruments are relatively easy to analyise for our ears, we can -by listening- figure out a lot about the structure and because of this figure out a lot about the forces acting on it which in turn tells us something about the way the musician is acting on it.<br>
<br>As musicians, on the other hand, our experience with natual phenomena makes acoustical instruments relatively predictable on a intuitive level.<br><br>Hence; I feel that if we want to make a intrument that&#39;s intuitive to controll while it may be quite complicated internally or if we want to convey a certain feeling from some set of sounds it makes a lot of sense to take inspiration from nature and physics for the way we link parameters to eachother and to the interface.<br>
<br>This need not all be completely direct. One strategy I use at times is take into acount how acoustical instruments have a &quot;state&quot; and that this state may have to &quot;change it&#39;s ballance&quot; when some force is acting on it. To (crudely) represent this for non-physically modeled instruments I sometimes determine the rate of change for a given controll and use that as a parameter for some element (like the amount of noise) while the actual value generated by the parameter itself may affect something else (like pitch).<br>
<br>I can&#39;t give any hard and fast rules for how to do this and lots of trial&amp;error is often needed but reading a bit about acoustics, pyschoacoustics and interface design does help a lot. Mentally picturing a instrument while fingering (or footing or....) the interface before you start coding helps as well.<br>
<br>There is -obviously- no need at all for electronic sound to have anything to do with nature at all but it does pay off to keep in mind that when sounds become too &quot;unlike nature&quot; the ear (and hearing psychology) will &quot;disbelieve&quot; them, give up trying to relate them to the listener on a practical level and a different kind of hearing kicks in. This may be exactly what you want at times but personally I think it&#39;s easier to get a emotional responce from a listener if you (partially) engage the side of hearing psychology that&#39;s in charge of sorting the sound of a lover&#39;s breath from that of a tiger.<br>
<br>Right, that was quite a bit of stuff to glance over really quickly but that&#39;s basically the core of it for me.<br><br>Hope that clarifies, I also hope it gave rise to lots of questions (I know I have a lot and they are lots of fun!).<br>
&nbsp;<br>Yours,<br>Kas.<br>