Hi Kas,<div>                  Thanks for the information.</div><div>        </div><div>                   I have downloaded the Songify App on Desktop, but i need to automate it. </div><div>                    </div><div>                   I need to handle and run  multiple parallel instances. Currently not possible with simulated Android environment.</div>
<div><br></div><div>                   I will try to follow the steps you have mentioned, and will see, if any success is achieved.</div><div><br></div><div>                  I you  further got any clue/method to achieve it, or any info  on it, plz  inform me.</div>
<div><br></div><div>Thanks and Regards,</div><div>Sunny.</div><div><br></div><div><br></div><div><br></div><div><br><br><div class="gmail_quote">On Tue, Jul 31, 2012 at 4:48 PM, Kassen <span dir="ltr"><<a href="mailto:signal.automatique@gmail.com" target="_blank">signal.automatique@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 31/07/2012, sunny chaudhary <<a href="mailto:uniquesunny@gmail.com">uniquesunny@gmail.com</a>> wrote:<br>
> Hi,<br>
<br>
Hey Sunny!<br>
<div><div class="h5"><br>
> I am new to this technology. I want to do some media processing on static<br>
> file. I want to mix the recorded human voice with some music. The voice<br>
> should time stretch and pitch stretch, pitch shift as per the music<br>
> frequency. Totally want to merge sound with music. So when listening to the<br>
> final output, it produces voice playing as per the flow of music.<br>
><br>
> Any idea how to achieve this?<br>
> Is CHUCK is the right tool for achieving this?<br>
> I need this functionality on urgent basis. We can pay for the solution.<br>
<br>
</div></div>This is quite possible, but it would, of course, take some work to set it all<br>
up and callibrate it properly. As a basic method I'd take a "phase vocoder"<br>
(see wikipedia or your favourite text book). Examples for how to create<br>
something like that will be found in the examples directory, under "analysis",<br>
particularly the stuff dealing with fft.<br>
<br>
For the timing you will need to write some analysis of transients in both the<br>
vocal recording and the music, then come up with a way of lining those up. From<br>
memory; examples/deep/ should have a enevelope follower that you could use as<br>
a basis for that.<br>
<br>
It's possible but if you are new to this kind of thing and also need it in a<br>
hurry you have a lot of work ahead because this doesn't sound especially easy.<br>
<br>
A short while ago Smule released a "app" for mobile platforms that does<br>
basically exactly this. When you write that you are willing to pay for a<br>
sollution you could simply buy that? I think you'd still be running ChucK,<br>
underneath it all. Of course doing that will mean you don't get to learn about<br>
how such things work. For me that would be a factor but I realise it isn't for<br>
everyone.<br>
<br>
Hope that helps a bit.<br>
Yours,<br>
Kas.<br>
<br>
PS; thank you for agreeing to move the discussion to the list. I'm sure more<br>
people will be interested in the problem as it's quite a interesting one.<br>
_______________________________________________<br>
chuck-users mailing list<br>
<a href="mailto:chuck-users@lists.cs.princeton.edu">chuck-users@lists.cs.princeton.edu</a><br>
<a href="https://lists.cs.princeton.edu/mailman/listinfo/chuck-users" target="_blank">https://lists.cs.princeton.edu/mailman/listinfo/chuck-users</a><br>
</blockquote></div><br></div>