<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: arial,helvetica,sans-serif; font-size: 12pt; color: #000000'><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><style>p { margin: 0; }</style><div style="font-family: arial,helvetica,sans-serif; font-size: 12pt; color: #000000"><b>New Algorithms for Nonnegative Matrix Factorization and Beyond</b>
<br>
<b><a href="http://people.csail.mit.edu/moitra/" target="_blank">Ankur Moitra</a></b>, <a href="http://www.ias.edu/" target="_blank">Institute for Advanced Studies</a>
<br>Wednesday, February 27, 2013, 4:30pm<br>Computer Science 105<br>
<br>
Machine learning is a vibrant field with many rich techniques.  
However, these approaches are often heuristic: we cannot prove good  
bounds on either their performance or their running time except in  
limited settings. This talk will focus on designing algorithms whose  
performance can be analyzed rigorously. As an example of this project,  
I will describe my work on the nonnegative matrix factorization  
problem, which has important applications throughout machine learning  
(and theory). As is often the case, this problem is NP-hard when  
considered in full generality. However, we introduce a sub-case called  
separable nonnegative matrix factorization that we believe is the  
right notion in various contexts. We give a polynomial time algorithm  
for this problem, and leverage this algorithm to efficiently learn the  
topics in a Latent Dirichlet Allocation model (and beyond). This is an  
auspicious example where theory can lead to inherently new algorithms  
that have highly-practical performance on real data sets.<br><br><p>
I will also briefly describe some of my other work on learning,  
including mixtures of Gaussians and robust linear regression, as well  
as promising directions for future work. <br></p><p><br></p>

Ankur Moitra is an NSF CI Fellow at the Institute for Advanced Study,  
and also a senior postdoc in the computer science department at  
Princeton University. He completed his PhD and MS at MIT in 2011 and  
2009 respectively, where he was advised by Tom Leighton. He received a  
George M. Sprowls Award (best thesis) and a William A. Martin Award  
(best thesis) for his doctoral and master's dissertations. He has  
worked in numerous areas of algorithms, including approximation  
algorithms, metric embeddings, combinatorics and smoothed analysis,  
but lately has been working at the intersection of algorithms and  
learning.
</div><br></div><br></div></body></html>