Real-Time Sign Language Gestures to Speech Transcription using Deep Learning

Dit project presenteert een real-time assistieve technologie die handgebaren via een webcam en convolutionele neurale netwerken vertaalt naar tekst en spraak om communicatie voor mensen met een spraak- of gehoorbeperking te vergemakkelijken.

Brandone Fonya, Clarence Worrell

Gepubliceerd 2026-02-24
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat communiceren als een brug is. Voor de meeste mensen staat deze brug open, maar voor mensen die doof zijn of slechthorend, en voor mensen die blind zijn of slechtziend, zijn er vaak enorme gaten in die brug. De ene groep gebruikt gebaren (gebarentaal), de andere groep kan die gebaren niet zien. Dit project van Brandone Fonya en Clarence Worrell van de Carnegie Mellon University probeert die gaten te dichten met een slimme, digitale tolk.

Hier is hoe ze dat doen, vertaald naar alledaags taalgebruik:

De Missie: Een Digitale Vertaler

Het doel is simpel maar krachtig: een systeem bouwen dat gebaren in het echt vertaalt naar gesproken taal. Stel je voor dat iemand een gebaar maakt met zijn hand, en direct daarna hoort een blinde of slechtziende persoon wat er gezegd wordt. Het is alsof je een magische bril draagt die voor je vertaalt wat je ziet, maar dan voor geluid.

Hoe werkt het? (De "Magie" van de Computer)

Het team heeft een soort digitale leermeester (een kunstmatige intelligentie) getraind. Hier is hoe het proces werkt, stap voor stap:

  1. De Oefeningen (De Dataset):
    De computer moest eerst leren wat elk handgebaar betekent. Ze hebben hem laten oefenen met een enorme verzameling foto's van handen die letters vormen (van A tot Y, maar zonder J en Z). Denk aan dit als een schoolboek met duizenden voorbeelden van hoe je een "A" of een "B" maakt met je hand. Dit heet het Sign Language MNIST-dataset.

  2. De Slimme Brain (Het CNN-model):
    Ze hebben een speciaal type brein voor de computer gebouwd, genaamd een Convolutional Neural Network (CNN).

    • De analogie: Stel je voor dat deze computer een detective is die door een vergrootglas kijkt. Eerst kijkt hij naar simpele lijntjes en hoekjes in de foto van je hand. Dan kijkt hij naar grotere vormen (zoals de vorm van je palm of de positie van je vingers). Uiteindelijk combineert hij al die informatie en zegt hij: "Ah! Dit is een hand die de letter 'A' maakt!"
    • De computer is zo getraind dat hij in 95,7% van de gevallen het juiste antwoord geeft. Dat is bijna net zo goed als een mens die er goed in is.
  3. De Live Show (De Webcam):
    Nu komt het echte werk. Het programma kijkt live naar je webcam.

    • MediaPipe: Dit is als een onzichtbare hand die je hand in beeld volgt en de contouren precies in de gaten houdt, zelfs als je beweegt.
    • OpenCV: Dit is de camera-man die het beeld scherp stelt en voorbereidt.
    • De Vertaling: Zodra de computer denkt: "Dit is een 'A'", stuurt hij die informatie door naar een stemmachine.
  4. De Stem (Text-to-Speech):
    De laatste stap is de vertaling naar geluid. Een programmaatje (pyttsx3) neemt de letter 'A' en spreekt die hardop uit. Voor een blinde persoon is het alsof de persoon die gebaart ineens een stem heeft gekregen.

Waarom is dit zo belangrijk?

Vroeger waren systemen die dit deden vaak duur en onhandig. Je had speciale handschoenen nodig of meerdere dure camera's. Dit project is anders:

  • Het is goedkoop: Je hebt alleen een gewone laptop en een webcam nodig.
  • Het is toegankelijk: Het werkt op standaard apparatuur, dus iedereen kan het gebruiken.
  • Het is real-time: Er is een klein beetje vertraging (latentie), maar het gebeurt bijna direct. Het is alsof je een tolk hebt die direct reageert, zonder dat je uren moet wachten.

Wat is er nog niet perfect?

Het systeem werkt nu vooral met statische gebaren (handen die stil staan en een letter vormen). Het is nog niet perfect in het begrijpen van een heel gesprek waarbij handen snel bewegen en zinnen vormen (zoals een lopende conversatie). Ook werkt het nu alleen met de Amerikaanse gebarentaal (ASL).

De Toekomst

De auteurs zien een mooie toekomst voor zich. Ze willen het systeem uitbreiden naar andere talen (zoals Japans of Indiaas gebarentaal) en het slimmer maken zodat het hele zinnen kan begrijpen in plaats van alleen losse letters.

Kortom: Dit project is als het bouwen van een brug tussen twee werelden. Het gebruikt slimme technologie om ervoor te zorgen dat gebaren niet langer stil blijven, maar gehoord kunnen worden door iedereen, ongeacht of je kunt zien of niet. Het maakt de wereld een stukje inclusiever, één gebaar tegelijk.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →