16. Oktober 2012

Wann können Computer unsere Gefühle verstehen?

Sie arbeitet seit zwanzig Jahren daran, menschliche Gefühle in Nullen und Einsen zu übersetzen.

Wie die New York Times berichtet ist die Wissenschaftlerin Rosalind Picard vom MIT eine von mehreren ihrer Zunft, die Computern Emotionen lehren will. Sie hat den Prototyp einer Brille entwickelt, die dem Träger anzeigt, wenn er sein Gegenüber langweilt. Vor allem Menschen mit dem Asperger Syndrom, einer leichten Form von Autismus, verlieren sich häufig in Details. Die Brille unterstützt sie dabei, die Emotionen anderer besser zu verstehen. Mittlerweile haben die Forscher auch Software entwickelt, die 24 Punkte im Gesicht des Menschen abtastet. Damit kann zwischen einem Lächeln und einem Grinsen unterschieden werden. Nun wird die Software auf der ganzen Welt mit Material gefüttert. Denn nur wenn man genug Beispiele verschiedenster Kulturen und Altersklassen habe, könnten die Maschinen die menschlichen Ausdrücke verstehen, so die Wissenschaftler.

An der Universität in Cambridge entsteht gleichzeitig ein Roboterkopf, der als GPS-System fungiert. Dabei soll der Roboter merken, wenn der Fahrer zum Beispiel genervt ist. Dann soll er nicht, wie sonst üblich, freundlich weiter flöten, sondern still sein.

Nachzulesen hier

Quelle: DRadio Wissen Lizenz: Creative Commons Licence: Namensnennung, keine kommerzielle Nutzung, keine Bearbeitung (BY-NC-CD)