<div dir="ltr">I posted a while back &quot;complaining&quot; about lack of a theora player on the iPhone. &nbsp;Porting the code for libtheora (and libogg/libvorbis) was (relatively) painless, and appears to be working. &nbsp;I&#39;m up against a tougher challenge now... rendering the video!&nbsp;<div>
<br></div><div>I tried using the brand-new SOC-funded SDL port to iphone to get the &quot;player_example.c&quot; code up and running, but ran into a major roadblock:<br></div><div><br></div><div>The SDL port to iphone uses an opengl-es driver and opengl drivers for SDL don&#39;t support YUV overlay&#39;s! &nbsp;So the problem (at least for now) is how I can get the YUV encoded frames from a theora movie rendered on the iPhone?</div>
<div><br></div><div>The options I&#39;ve considered are:&nbsp;</div><div>a) convert from YUV to RGB in code (this probably won&#39;t work for realtime decoding)</div><div>b) convert from YUV to RGB using pixel shading (If it sounds like I don&#39;t know what I&#39;m talking about, that&#39;s correct... I&#39;ve simply seen smarter people talk about doing the conversion on the GPU using pixel shading???)</div>
<div>c) convert the frames to still images in a format that the iphone can display natively (doesn&#39;t jpeg use the same YUV encoding that theora does?) and render them as a series of images (I have no clue if this is feasible or not, or if the conversion/decoding would be worse than just doing a or b above)</div>
<div>d) something else?</div><div>e) give up!</div><div><br></div><div>So any feedback would be great! &nbsp;</div><div>On a positive note, the iphone sdk&#39;s NDA should be lifted very soon..</div><div>On a negative note, the guy that ported vlc to iphone (google vlc4iphone) hasn&#39;t released any of the source... so I can&#39;t even cheat to see how he&#39;s doing it... and asking him directly hasn&#39;t worked.</div>
<div>Steve</div></div>