<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: arial,helvetica,sans-serif; font-size: 10pt; color: #000000'>Linjie Luo will present his preFPO on Thursday December 13 at 11AM in <br>Room 402.  The members of his committee are:  Szymon Rusinkiewicz, <br>advisor; Tom Funkhouser and Sylvain Paris (Adobe), readers; Adam <br>Finkelstein and David Dobkin, nonreaders.  Everyone is invited to attend <br>his talk.  His abstract follows below.<div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><div>---</div><div><br></div><div><div><div>Title: Towards High Quality Hair Capture and Modeling</div><div><br></div><div>Abstract:</div><div><br></div><div>Hair is one of human's most distinctive features and one important</div><div>component in human digitalization. However, capturing and modeling</div><div>hair remains challenging because of hair's unique properties: the</div><div>specular appearance violates the Lambertian surface assumption used in</div><div>most multi-view stereo reconstruction methods; The vast variations and</div><div>complex topology of hair styles pose great technical difficulties for</div><div>high quality hair capture and modeling.</div><div><br></div><div>We propose an orientation-based matching metric for multi-view hair</div><div>capture that is more robust to hair's view-dependent specular</div><div>highlights. The metric is performed in multi-resolution to reveal</div><div>increasing hair structures and details. The orientation-based metric</div><div>also facilitates the structure-aware aggregation to reduce matching</div><div>error and stereo noise along coherent hair structures. Our approach is</div><div>able to reconstruct approximate surfaces to a variety of hair styles</div><div>with detailed hair structures from ~30 input views.</div><div><br></div><div>To alleviate the requirement for dense small-baseline capture setup,</div><div>we introduce a visual hull based refinement method to enable</div><div>wide-baseline full hair capture with only 8 views. The refinement is</div><div>driven by the strands generated from the orientation map of each input</div><div>view. The final shape is obtained by optimizing the orientation</div><div>consistency of these strands against all the orientation maps as well</div><div>as the regularization terms that account for the smoothness at strand,</div><div>wisp and global levels. We find our method effective on various hair</div><div>styles and suitable for dynamic hair capture. We achieve an</div><div>average reconstruction accuracy of ~3mm on synthetic datasets.</div><div><br></div><div>Finally, we address the challenge of robustly modeling hair strands</div><div>from the captured incomplete exterior hair geometry with plausible</div><div>topology for hair simulation. Our main contribution is the</div><div>construction and analysis of the global connection graph to compute</div><div>the plausible hair topology from the incomplete exterior hair</div><div>geometry. The connection graph encodes coherent local strands and</div><div>plausible inter-strand connections. The final hair strands can be</div><div>generated from a wisp forest derived from the connection graph.</div><div><br></div></div></div><br></div><br></div></body></html>