<div dir="ltr">Thanks Richard, Jan,<div><br></div><div>indeed, there is a lot of research to be done for this. I have done some consultancy in of the the CS UNI in Macedonia with teachers who tried this in the past so there are already some insights. I would see the first simple app on mobile device, something like an app that will teach the sign alphabet only ... For real translator it will take some time. And thanks again Richard, I will ping you for sure on this...</div><div><br></div><div>Cheers and thanks</div><div>Nick</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Mar 12, 2018 at 12:32 PM, Richard Kennaway <span dir="ltr"><<a href="mailto:richard@kennaway.org.uk" target="_blank">richard@kennaway.org.uk</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Sun, March 11, 2018 8:18 pm, Trajce Nikolov NICK wrote:<br>
> Hello Community,<br>
><br>
><br>
> I carry this idea with me from my UNI days (which is about 20 years ago)<br>
> and since recent it was just an idea. Over time it was even close to get<br>
> some funding but it did not happen.<br>
><br>
> The idea is to have virtual 3D avatar that can "speak" the sign language<br>
> based on text or voice input. The recent technology from Google made the<br>
> realization of  the language translation doable.<br>
><br>
> So I am here to ask you if someone might be interested in actually make<br>
> this happen. I personally work with an artist (friend of mine, decades of<br>
> friendship, also worked together on various projects). And we want to do<br>
> this opensource, based on OSG.<br>
><br>
> All suggestions, brainstorms, hints, anything, are highly welcome!<br>
<br>
</span>I did some work on signing avatars 10 to 20 years ago, in an academic<br>
context. In fact, several of the first page of hits for the Google search<br>
that Jan Ciger posted refer to that project (Virtual Humans at UEA).<br>
<br>
My own role in that was to create software to turn signing transcriptions<br>
written in an avatar-independent notation into animation data for driving<br>
any humanoid avatar, in real time. Feel free to email me for more<br>
information if this sounds relevant to what you have in mind. My<br>
publications on this can be found through ResearchGate or Google Scholar.<br>
As Jan says, there has been a large amount of work on this, by other<br>
groups as well, although it seems to me that none of it has really taken<br>
off. Perhaps because it is a very niche application. The demand would be<br>
primarily from the pre-lingually deaf, i.e., those for whom signing is<br>
their first language. With all respect to that population, it is a very<br>
small one.<br>
<br>
Personally, I would be more interested in extending my work to do<br>
procedural animation of more general sorts of movement, but I've haven't<br>
done anything substantial on that.<br>
<br>
--<br>
Richard Kennaway<br>
John Innes Centre and University of East Anglia<br>
Norwich, U.K.<br>
<div class="HOEnZb"><div class="h5"><br>
______________________________<wbr>_________________<br>
osg-users mailing list<br>
<a href="mailto:osg-users@lists.openscenegraph.org">osg-users@lists.<wbr>openscenegraph.org</a><br>
<a href="http://lists.openscenegraph.org/listinfo.cgi/osg-users-openscenegraph.org" rel="noreferrer" target="_blank">http://lists.openscenegraph.<wbr>org/listinfo.cgi/osg-users-<wbr>openscenegraph.org</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">trajce nikolov nick<br></div>
</div>