Interessant

Der neue Hand-Tracking-Algorithmus könnte ein großer Schritt bei der Erkennung der Gebärdensprache sein

Der neue Hand-Tracking-Algorithmus könnte ein großer Schritt bei der Erkennung der Gebärdensprache sein


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Mehrere Unternehmen, wie SignAll und Kintrans, haben Übersetzungssysteme für Gebärdensprachen entwickelt. Diese Systeme sind zwar hochentwickelt, müssen aber noch zum Mainstream werden.

Die ultimative Mission dieser Unternehmen ist es, den Millionen von Menschen, die Gebärdensprache verwenden, eine einfache Kommunikation mit jedem zu ermöglichen.

Ein neuer Hand-Tracking-Algorithmus aus den KI-Labors von Google könnte ein großer Schritt sein, um diese ehrgeizige Art von Software zu dem zu machen, was sie ursprünglich versprochen hatte.

VERBINDUNG: DIESE SMARTPHONE-APP KANN IHR LEBEN MIT NUR 3 WORTEN RETTEN

Handwahrnehmung in Echtzeit

Das neue System von Google AI Labs verwendet nur ein Smartphone und seine Kamera und erstellt eine sehr detaillierte Karte der Hand einer Person, die dann für die Kommunikation verfolgt werden kann.

"Während aktuelle Ansätze auf dem neuesten Stand der Technik hauptsächlich auf leistungsstarken Desktop-Umgebungen beruhen, um Rückschlüsse zu ziehen, erzielt unsere Methode eine Echtzeitleistung auf einem Mobiltelefon und lässt sich sogar auf mehrere Hände skalieren", so die Google-Forscher Valentin Bazarevsky und Fan Zhang in einem Blogeintrag.

"Eine robuste Echtzeit-Handwahrnehmung ist eine ausgesprochen herausfordernde Computer-Vision-Aufgabe, da sich die Hände häufig gegenseitig oder gegenseitig verschließen (z. B. Finger- / Handflächenverschlüsse und Handshakes) und keine kontrastreichen Muster aufweisen."

Wie TechCrunch berichtet, haben sich Unternehmen wie SignAll an Tiefenerkennungs-Kamera-Rigs gewandt, um die Handbewegungen zu verfolgen. Trotzdem ist es eine schwierige Aufgabe, die Handbewegungen mit Fingern zu verfolgen, die sich gegenseitig verdecken und sich schnell bewegen.

Schnellere Berechnungen

Die Forscher haben ihren Algorithmus unter anderem dazu gebracht, Handzeichen schneller zu berechnen, indem sie den Prozess so weit wie möglich vereinfacht haben - weniger Daten führen zu weniger Verarbeitungszeit.

Erstens trainiert das System auf der Handfläche einer Person, anstatt die Dimensionen der gesamten Hand zu erfassen. Dann betrachtet ein separater Algorithmus auch die Finger und die Handfläche und weist sie zu 21 Koordinaten an Knöcheln, Fingerspitzen usw.

Damit die KI diese Koordinaten lernen konnte, mussten die Forscher diese manuell hinzufügen 21 Punkte für manchen 30.000 Bilder von Händen in verschiedenen Posen und Beleuchtungssituationen.

Anregung neuer Forschungswege

Die Entwickler haben ihren Code als Open-Source-Version bereitgestellt, in der Hoffnung, dass andere innovative Wege finden, ihn zu verwenden und zu verbessern. Das System verwendet das vorhandene MediaPipe-Augmented-Reality-Framework von Google.

"Wir hoffen, dass die Bereitstellung dieser Handwahrnehmungsfunktionalität für die breitere Forschungs- und Entwicklungsgemeinschaft zu kreativen Anwendungsfällen führt, die neue Anwendungen und neue Forschungswege anregen", heißt es in ihrer Blog-Erklärung.

Bis zur wirklich effektiven Erkennung der Gebärdensprache ist es wahrscheinlich noch ein langer Weg - die Kommunikation über die Gebärdensprache beruht auf Handgesten, Gesichtsausdrücken und anderen Hinweisen. Trotzdem ist dies ein aufregender Schritt in die richtige Richtung.


Schau das Video: Rolf Zuckowski - Wann kommst du Weihnachtsmann in Gebärdensprache (Juni 2022).


Bemerkungen:

  1. Kijind

    Ich protestiere dagegen.

  2. Rory

    Eine verständliche Antwort



Eine Nachricht schreiben