Kalorienzählen mit Sehbehinderung: Wie KI und Sprache es ermöglichen
Traditionelle Kalorienzähler-Apps wurden für sehende Nutzer entwickelt. KI-Bilderkennung und Sprachschnittstellen machen die Ernährungserfassung endlich für alle zugänglich.
Marcus ist 42 Jahre alt, arbeitet als Datenbankadministrator und hat seit seinen späten Zwanzigern aufgrund von Retinitis pigmentosa eine fortschreitende Sehbehinderung. Er kann Licht und Formen wahrnehmen, aber das Lesen von kleinen Texten auf einem Bildschirm ist ohne erhebliche Hilfstechnologie nicht machbar. Seit Jahren wollte er seine Kalorien verfolgen. Sein Arzt empfahl es. Sein Ernährungsberater empfahl es. Er hat es versucht – wirklich versucht – mit mindestens vier verschiedenen Apps über sechs Jahre. Jede einzelne hat ihn innerhalb einer Woche aufgegeben.
„Die Ironie ist mir nicht entgangen“, erzählte uns Marcus. „Ich bin jemand, der den ganzen Tag mit Daten arbeitet. Ich liebe Zahlen. Ich liebe Muster. Kalorienzählen sollte mein Ding sein. Aber jede App, die ich ausprobiert habe, war so gestaltet, als ob nur Menschen mit perfektem Sehvermögen essen würden.“
Marcus ist damit alles andere als allein. Laut der Weltgesundheitsorganisation haben weltweit mindestens 2,2 Milliarden Menschen eine Sehbehinderung, sei es in der Nähe oder in der Ferne. Allein in den Vereinigten Staaten haben etwa 12 Millionen Menschen im Alter von 40 Jahren und älter irgendeine Form von Sehbehinderung, darunter 1 Million, die blind sind. Das sind keine kleinen Zahlen. Und doch hat die Kalorienzähler-Branche Barrierefreiheit historisch als nachträglichen Gedanken behandelt – wenn sie überhaupt berücksichtigt wurde.
Dieser Artikel untersucht die spezifischen Barrieren, die traditionelle Kalorienzähler-Apps für Menschen mit Sehbehinderungen darstellen, wie aufkommende Technologien wie KI-Bilderkennung und Spracheingabe das Mögliche verändern und wie die Nutzung von Nutrola für jemanden wie Marcus tatsächlich aussieht. Wir werden ehrlich darüber sprechen, was funktioniert, wo es noch Defizite gibt und was die Branche als Nächstes tun muss.
Die Barrieren: Warum traditionelle Kalorienzähler bei sehbehinderten Nutzern scheitern
Um das Problem zu verstehen, muss man begreifen, was Kalorienzählen tatsächlich von einem Nutzer verlangt. Es ist keine einzelne Handlung. Es ist eine Kette präziser, visuell intensiver Mikroaufgaben, die mehrmals täglich, jeden Tag ausgeführt werden. Für einen sehenden Nutzer sind die einzelnen Schritte geringfügig. Für einen Nutzer mit Sehbehinderung oder Blindheit kann jeder Schritt eine Wand sein.
Kleiner Text und dichte Benutzeroberflächen
Die meisten Kalorienzähler-Apps zeigen eine überwältigende Menge an numerischen Daten auf einem einzigen Bildschirm an. Tägliche Kalorienzahlen, Makronährstoffaufteilungen, Mahlzeit-für-Mahlzeit-Zwischensummen, Fortschrittsbalken, Prozentanzeigen, Zielvergleiche. Diese Informationen werden typischerweise in kleinen Schriftarten mit dünnen Strichstärken und oft in Farbkontrasten mit geringer Sichtbarkeit angezeigt – hellgrau auf weiß zum Beispiel oder grüner Text auf einem leicht abweichenden Grünton.
Für einen Nutzer, der auf Bildschirmvergrößerung angewiesen ist, bedeutet das Navigieren durch eine solche Benutzeroberfläche ständiges Panning über den Bildschirm, wodurch der räumliche Kontext mit jedem Wisch verloren geht. Die Informationsarchitektur geht davon aus, dass man das gesamte Dashboard auf einen Blick sehen kann. Wenn man jedoch nur einen Bruchteil auf einmal sieht, bricht das mentale Modell zusammen.
Für einen Nutzer, der auf einen Screenreader wie VoiceOver oder TalkBack angewiesen ist, ist das Problem anders, aber ebenso schwerwiegend. Viele Kalorienzähler-Apps verwenden benutzerdefinierte UI-Komponenten – kreisförmige Fortschrittsdiagramme, animierte Ringe, Schieberegler zum Anpassen – die nicht mit den richtigen Barrierefreiheitsbeschriftungen ausgestattet sind. Ein Screenreader trifft auf einen Fortschrittsring und kündigt „Bild“ an oder, schlimmer noch, gar nichts. Der Nutzer hört Stille, wo die Kalorienzahl sein sollte.
Das Such- und Auswahlproblem
Das manuelle Protokollieren von Lebensmitteln in einer traditionellen App erfordert das Durchsuchen einer Datenbank. Man tippt „Hähnchenbrust“ ein, und die App gibt eine Liste von Ergebnissen zurück: „Hähnchenbrust, gegrillt, ohne Haut, 4 oz“ und „Hähnchenbrust, geröstet, mit Haut, 100g“ und „Hähnchenbrust Tender, paniert, gefroren, Tyson“ und fünfzehn weitere Variationen. Jeder Eintrag unterscheidet sich in der Zubereitungsart, der Marke und der Portionsgröße. Die Auswahl des richtigen Eintrags erfordert das Lesen und Vergleichen mehrerer Zeilen kleinen Textes.
Für einen Screenreader-Nutzer bedeutet dies, dass er jedes Ergebnis nacheinander vorlesen lassen muss, die Unterschiede im Arbeitsgedächtnis halten und hin und her navigieren muss, um zu vergleichen. Was ein sehender Nutzer in vier Sekunden erledigt, kann für einen Screenreader-Nutzer zwei Minuten in Anspruch nehmen. Multipliziert man das mit jedem Lebensmittel in jeder Mahlzeit, jeden Tag, wird die kognitive und zeitliche Belastung untragbar.
Barcode-Scanning: Ein falsches Versprechen der Einfachheit
Viele Apps bewerben das Scannen von Barcodes als die einfachste Eingabemethode. Man hält das Telefon auf einen Barcode, und das Lebensmittel wird sofort protokolliert. Einfach, oder?
Nicht, wenn man den Barcode nicht sehen kann.
Das Scannen von Barcodes erfordert eine präzise visuelle Ausrichtung. Der Nutzer muss den Barcode auf der Verpackung finden, die Kamera des Telefons so positionieren, dass der Barcode in einen bestimmten Bereich des Sucherfensters fällt, das Telefon ruhig halten und warten, bis der Scan registriert wird. Die meisten Apps bieten während dieses Prozesses kein akustisches oder haptisches Feedback. Es gibt keinen Ton, der höher wird, je näher man der Ausrichtung kommt. Es gibt keine Vibration, wenn der Barcode ins Bild kommt. Der Nutzer wird erwartet, dass er auf den Bildschirm schaut und sieht, ob der Barcode ausgerichtet ist.
Für jemanden mit Sehbehinderung kann dies manchmal mit Mühe und Geduld bewältigt werden. Für jemanden, der blind ist, ist es ohne Hilfe eines sehenden Menschen praktisch nicht funktional.
Portionsgrößen schätzen
Selbst nachdem ein Lebensmittel ausgewählt wurde, müssen die Nutzer eine Menge angeben. Traditionelle Apps präsentieren dies als Textfeld oder Auswahlrad – „1 Tasse“, „4 oz“, „1 mittelgroß“. Diese Steuerungen sind oft schlecht für Screenreader beschriftet. Besonders Auswahlräder sind notorisch schwer mit VoiceOver zu bedienen, da jeder Scrollschritt angekündigt werden muss, bevor der Nutzer entscheiden kann, ob er weiter scrollen möchte.
Fundamental beruht die Portionsschätzung oft auf visuellen Vergleichen. „Ist das ein mittelgroßer Apfel oder ein großer Apfel?“ „Sieht das aus wie eine Tasse Reis oder eineinhalb?“ Sehende Nutzer haben bereits Schwierigkeiten mit diesen Urteilen. Für Nutzer mit eingeschränkter oder keiner Sicht ist die Schätzung noch unsicherer, und die Apps bieten keine alternative Methode an.
Die kumulative Wirkung
Keine dieser Barrieren ist für sich genommen unbedingt unüberwindbar, wenn man genug Geduld und Entschlossenheit hat. Aber Kalorienzählen ist keine einmalige Aufgabe. Es ist eine tägliche Gewohnheit, die bei jeder Mahlzeit wiederholt werden muss. Die kumulative Reibung von kleinem Text, komplexer Navigation, unzugänglichen Steuerungen und visuell abhängigen Eingabemethoden führt dazu, dass selbst der motivierteste sehbehinderte Nutzer schließlich den Prozess aufgibt. Nicht, weil es ihm nicht um seine Ernährung geht, sondern weil die Werkzeuge nicht für ihn gemacht wurden.
Marcus beschrieb die Erfahrung unverblümt: „Es fühlte sich an, als würde ich ein Lehrbuch lesen, das in einer Sprache gedruckt war, die ich fast, aber nicht ganz verstand. Ich konnte Fragmente erfassen. Aber der Aufwand, um das Gesamtbild zu bekommen, war so erschöpfend, dass es sich nicht lohnte. Also hörte ich auf. Und dann fühlte ich mich schuldig, weil ich aufgehört hatte, was eine eigene Art von Schaden ist.“
Wie KI-Bilderkennung die Gleichung verändert
Die Einführung der KI-gestützten Lebensmittelerkennung stellt den bedeutendsten Fortschritt in der Barrierefreiheit beim Kalorienzählen seit der Erfindung des Smartphones dar. Das Prinzip ist einfach: Anstatt eine Datenbank zu durchsuchen, Ergebnisse zu lesen und den richtigen Eintrag auszuwählen, macht man ein Foto von seinem Essen. Die KI identifiziert, was auf dem Teller ist, schätzt die Portionsgrößen und gibt eine Kalorien- und Makronährstoffaufteilung zurück.
Für sehende Nutzer ist das eine Bequemlichkeit. Für sehbehinderte Nutzer ist es transformativ.
Warum Foto-Protokollierung für sehbehinderte und blinde Nutzer funktioniert
Ein Foto zu machen, erfordert keine präzise visuelle Ausrichtung, wie es beim Scannen von Barcodes der Fall ist. Das Essen auf einem Teller ist ein großes Ziel. Der Nutzer muss den Telefon in die allgemeine Richtung seines Tellers halten, etwa einen Fuß darüber. Moderne KI-Modelle sind robust genug, um Fotos aus ungenauen Winkeln, bei variabler Beleuchtung und ohne präzise Rahmung zu verarbeiten.
Sowohl iOS als auch Android bieten Kamera-Barrierefreiheitsfunktionen, die ankündigen, wenn Gesichter oder Objekte im Bild erkannt werden. Nutrola baut darauf auf, indem es akustisches Feedback gibt, wenn ein Lebensmittelbild aufgenommen und verarbeitet wird. Der Nutzer hört einen Bestätigungston, gefolgt von der Ansage der KI: „Identifiziert: gegrillte Hähnchenbrust, ungefähr sechs Unzen. Brauner Reis, ungefähr eine Tasse. Gedämpfter Brokkoli, ungefähr eine Tasse. Geschätzte Gesamtkalorien: 520.“
Der Nutzer kann dann bestätigen, anpassen oder weitere Elemente hinzufügen – alles über eine für Screenreader zugängliche Benutzeroberfläche oder zunehmend durch Sprache.
Die Rolle der KI bei der Reduzierung der visuellen Abhängigkeit
Traditionelles Kalorienzählen legte die Last der Dateninterpretation auf die Augen des Nutzers. KI verlagert diese Last auf das Modell. Die Rolle des Nutzers besteht darin, Eingaben zu liefern – ein Foto – und die Ausgaben zu überprüfen – eine Zusammenfassung, die akustisch geliefert werden kann. Der komplexe Zwischenschritt des Suchens, Vergleichens und Auswählens wird von der KI übernommen.
Das ist keine geringfügige Verbesserung des Workflows. Es ist eine grundlegende Neugestaltung dessen, wo Sichtbarkeit im Tracking-Prozess erforderlich ist. Anstatt dass Sichtbarkeit in jedem Schritt erforderlich ist, ist sie in fast keinem Schritt erforderlich.
Spracheingabe: Der zweite Durchbruch
Wenn die KI-Bilderkennung die erste Säule des barrierefreien Kalorienzählens ist, ist die Spracheingabe die zweite.
Die Sprachprotokollierung ermöglicht es einem Nutzer zu sagen: „Ich hatte ein Truthahnsandwich auf Vollkornbrot mit Salat, Tomate und Senf sowie einen kleinen Apfel“ und die App diesen Satz in strukturierte Ernährungsdaten umzuwandeln. Kein Tippen. Kein Suchen. Keine Navigation durch komplexe Menüs. Der Nutzer spricht, und die App übersetzt die Sprache in einen Lebensmittelprotokolleintrag.
Für sehbehinderte Nutzer beseitigt die Spracheingabe den interaktionsintensivsten Teil des Tracking-Prozesses. Sie ersetzt einen mehrstufigen visuellen Workflow durch einen einzigen gesprochenen Satz. Die App liest dann zurück, was sie verstanden hat, der Nutzer bestätigt oder korrigiert, und der Eintrag wird protokolliert.
Die Sprachprotokollierung von Nutrola ist so gestaltet, dass sie natürliche, gesprächige Beschreibungen verarbeitet. Nutzer müssen nicht in einem bestimmten Format oder mit genauen Datenbankbegriffen sprechen. „Eine große Schüssel Pasta mit roter Soße und etwas Parmesan oben drauf“ ist ein gültiger Eingabe. Die KI interpretiert die Beschreibung, ordnet sie den Ernährungsdaten zu und präsentiert ihre Schätzung zur Überprüfung.
Sprache als Navigationswerkzeug
Über die Lebensmittelprotokollierung hinaus kann die Sprachinteraktion auch die zuvor beschriebenen Navigationsbarrieren angehen. Anstatt visuell durch ein Dashboard zu scannen, kann ein Nutzer fragen: „Wie viele Kalorien habe ich heute konsumiert?“ oder „Wie hoch war meine Proteinzufuhr in dieser Woche?“ und erhält eine gesprochene Antwort.
Diese Art der konversationellen Interaktion mit Ernährungsdaten verändert die gesamte Beziehung zwischen dem Nutzer und der App. Die App wird weniger zu einer visuellen Benutzeroberfläche, die navigiert werden muss, und mehr zu einem Assistenten, den man konsultiert. Für einen sehbehinderten Nutzer ist das der Unterschied zwischen dem Kämpfen mit dem Tool und dem Nutzen des Tools.
VoiceOver- und TalkBack-Kompatibilität: Das Fundament
KI- und Sprachfunktionen sind wichtig, aber sie basieren auf einer grundlegenderen Anforderung: Die App selbst muss vollständig mit den Plattform-Screenreadern kompatibel sein, auf die sehbehinderte Nutzer täglich angewiesen sind.
Auf iOS ist dieser Screenreader VoiceOver. Auf Android ist es TalkBack. Diese sind keine optionalen Features. Für einen blinden Nutzer sind sie das primäre Mittel zur Interaktion mit jeder App auf ihrem Telefon.
Die vollständige Kompatibilität mit Screenreadern bedeutet:
- Jedes interaktive Element hat eine beschreibende Barrierefreiheitsbeschriftung. Ein Button, der eine Mahlzeit protokolliert, wird als „Mahlzeit protokollieren“-Button angekündigt, nicht als „Button“ oder gar nichts.
- Jedes Informations-Element vermittelt seinen Inhalt. Eine Kalorienzahl wird als „1.450 von 2.200 Kalorien heute konsumiert“ vorgelesen, nicht als „Fortschrittsbalken, 66 Prozent“ oder einfach „Bild“.
- Die Navigationsreihenfolge ist logisch und vorhersehbar. Das Wischen durch die Benutzeroberfläche bewegt sich durch Elemente in einer Reihenfolge, die semantisch Sinn macht, nicht in einer willkürlichen Reihenfolge, die durch das visuelle Layout bestimmt wird.
- Benutzerdefinierte Steuerungen sind zugänglich. Wenn die App einen benutzerdefinierten Schieberegler zur Anpassung der Portionsgröße verwendet, funktioniert dieser Schieberegler mit VoiceOver-Gesten und kündigt seinen aktuellen Wert und Bereich an.
- Zustandsänderungen werden angekündigt. Wenn ein Lebensmittel erfolgreich protokolliert wurde, kündigt der Screenreader die Bestätigung an. Wenn ein Fehler auftritt, kündigt der Screenreader den Fehler an. Der Nutzer wird niemals in Stille gelassen, während er sich fragt, was passiert ist.
Nutrola hat in die Kompatibilität mit Screenreadern als grundlegende technische Anforderung investiert, nicht als nachträglichen Patch. Jede neue Funktion wird vor der Veröffentlichung mit VoiceOver und TalkBack getestet. Barrierefreiheitsbeschriftungen sind Teil der Entwurfsspezifikation, nicht nachträglich hinzugefügt, nachdem das visuelle Design abgeschlossen ist.
Das bedeutet nicht, dass die Erfahrung perfekt ist. Das ist sie nicht. Es gibt raue Kanten, und wir werden diese später in diesem Artikel ehrlich ansprechen. Aber das Fundament ist gelegt und wird mit jedem Update gepflegt.
Ein Tag im Leben von Marcus mit Nutrola
Um dies konkret zu machen, hier ist, wie ein typischer Tag für Marcus aussieht – den Datenbankadministrator mit Sehbehinderung, den wir zu Beginn dieses Artikels vorgestellt haben. Er nutzt Nutrola seit etwa vier Monaten.
Morgen
Marcus wacht auf und macht Frühstück: zwei Rühreier, eine Scheibe Vollkorntoast mit Butter und eine Tasse schwarzen Kaffee. Er öffnet Nutrola über die App-Verknüpfung auf seinem Startbildschirm – positioniert in der unteren linken Ecke, wo sein Muskelgedächtnis es erwartet. VoiceOver kündigt „Nutrola“ an, als er tippt.
Er verwendet den Sprachbefehl: „Frühstück protokollieren. Zwei Rühreier, eine Scheibe Vollkorntoast mit Butter, schwarzer Kaffee.“
Nutrola verarbeitet die Eingabe und liest zurück: „Frühstück protokolliert. Zwei Rühreier, 180 Kalorien. Eine Scheibe Vollkorntoast mit einem Esslöffel Butter, 165 Kalorien. Schwarzer Kaffee, 5 Kalorien. Gesamtes Frühstück: 350 Kalorien.“
Marcus bestätigt. Die gesamte Interaktion dauert etwa fünfzehn Sekunden.
Vormittag
Bei der Arbeit greift Marcus zu einem Snack aus dem Pausenraum – einer Banane und einer Handvoll Mandeln. Er macht ein schnelles Foto. Er muss es nicht perfekt einrahmen. Er hält sein Telefon ungefähr über das Essen, tippt auf die Aufnahmetaste (die VoiceOver ankündigt) und wartet auf den Verarbeitungston.
„Identifiziert: eine mittelgroße Banane und ungefähr eine Unze Mandeln. Geschätzte Gesamtkalorien: 270.“
Marcus weiß aus Erfahrung, dass die KI dazu neigt, seine Mandelportionen leicht zu unterschätzen, weil er große Hände hat und großzügige Portionen nimmt. Er sagt der App: „Mach die Mandeln eineinhalb Unzen.“ Der Eintrag wird aktualisiert. Er bestätigt.
Mittagessen
Die Cafeteria seines Arbeitsplatzes stellt eine häufige Herausforderung dar: Mischgerichte, bei denen die einzelnen Zutaten schwer zu trennen sind. Heute hat er ein Hähnchenpfannengericht über weißem Reis aus der warmen Theke. Er fotografiert es und lässt die KI ihre Arbeit machen.
„Identifiziert: Hähnchenpfannengericht mit gemischtem Gemüse über weißem Reis. Geschätzte Gesamtkalorien: 680. Protein: 35 Gramm. Kohlenhydrate: 72 Gramm. Fett: 24 Gramm.“
Marcus denkt, dass die Portion Reis größer ist als das, was die KI geschätzt hat. Er passt an: „Mach den Reis eineinhalb Tassen statt einer Tasse.“ Die Totale werden aktualisiert und ihm vorgelesen.
Nachmittag
Marcus fragt Nutrola nach einem Status-Update. „Wie mache ich es heute?“
Die App antwortet: „Du hast bisher 1.340 Kalorien konsumiert. Dein tägliches Ziel sind 2.100 Kalorien. Dir bleiben 760 Kalorien. Dein Protein bisher beträgt 78 Gramm von deinem Ziel von 140 Gramm.“
Das dauert drei Sekunden. Kein visuelles Scannen. Keine Dashboard-Navigation. Nur eine Frage und eine Antwort.
Abendessen
Zu Hause bereitet Marcus ein Lachsfilet mit gerösteten Süßkartoffeln und einem Beilagensalat zu. Er fotografiert den Teller. Die KI identifiziert jede Komponente. Er bestätigt den Eintrag.
Nach dem Abendessen fragt er nach seiner täglichen Zusammenfassung. Nutrola liest ihm seine gesamte Aufnahme vor, aufgeschlüsselt nach Mahlzeiten, zusammen mit seinen Makronährstofftotals und wie sie mit seinen Zielen verglichen werden. Marcus hat 2.050 Kalorien, 132 Gramm Protein und liegt leicht über dem Kohlenhydratziel.
„Vor vier Monaten hätte ich dir nicht innerhalb von 500 Kalorien sagen können, was ich an einem beliebigen Tag gegessen habe“, sagte Marcus. „Jetzt weiß ich es innerhalb eines vernünftigen Fehlers. Das ist keine Kleinigkeit. Mein Arzt hat den Unterschied in meinem letzten Blutbild bemerkt. Mein A1C ist gesunken. Das ist real.“
Was Marcus am meisten schätzt
Als man ihn fragte, was ihm an der Erfahrung am wichtigsten ist, nannte Marcus kein spezifisches Feature. Er sprach von Konsistenz. „Das Ding mit Barrierefreiheit ist, dass es nicht nur darum geht, ob etwas technisch möglich ist. Es geht darum, ob es nachhaltig ist. Ich könnte mit einer unzugänglichen App für eine Mahlzeit kämpfen. Vielleicht für zwei. Aber das drei bis fünf Mal am Tag, jeden Tag, über Monate? Da bricht alles zusammen. Nutrola ist die erste App, bei der der erforderliche Aufwand so gering ist, dass ich es tatsächlich weiter machen kann.“
Praktische Tipps für sehbehinderte Nutzer, die mit dem Kalorienzählen beginnen
Basierend auf dem Feedback von Marcus und anderen sehbehinderten Nutzern in unserer Gemeinschaft sind hier praktische Strategien für den Einstieg.
1. Richten Sie die Sprachprotokollierung von Anfang an ein
Beginnen Sie nicht mit manueller Eingabe und „planen Sie, später zur Sprache zu wechseln“. Beginnen Sie mit Sprache. Das setzt die richtigen Erwartungen an den Aufwand und verhindert, dass frühe Frustrationen Ihre Wahrnehmung des Prozesses vergiften.
2. Lernen Sie die Fototechnik
Halten Sie Ihr Telefon etwa 30 bis 45 cm über dem Teller, grob zentriert. Sie müssen den Bildschirm nicht sehen. Hören Sie auf die Bestätigung des Aufnehmens. Wenn die KI etwas falsch identifiziert, korrigieren Sie es per Sprache. Nach ein paar Tagen entwickeln Sie eine zuverlässige Technik, die fast immer funktioniert.
3. Verwenden Sie konsistente Gerichte und Portionen
Das ist ein guter Rat für jeden, aber besonders hilfreich für sehbehinderte Nutzer. Wenn Sie jeden Tag Ihr Frühstück aus derselben Schüssel essen, entwickeln Sie ein körperliches Gefühl dafür, wie voll die Schüssel ist und was das kalorienmäßig entspricht. Weniger Variablen bedeuten weniger Anpassungen an die Schätzungen der KI.
4. Bauen Sie eine Routine um das Protokollieren auf
Protokollieren Sie jede Mahlzeit sofort nach dem Essen, bevor Sie zur nächsten Aktivität übergehen. Das verringert die Wahrscheinlichkeit, eine Mahlzeit zu vergessen, und eliminiert die Notwendigkeit, Portionen und Zutaten später am Tag aus dem Gedächtnis abzurufen.
5. Nutzen Sie die Sprachzusammenfassung regelmäßig
Überprüfen Sie Ihre täglichen Totale mindestens zweimal täglich per Sprache – einmal zur Mittagszeit und einmal nach dem Abendessen. Das hält Sie mit den Daten verbunden, ohne dass eine visuelle Benutzeroberfläche erforderlich ist.
6. Halten Sie Ihren Screenreader aktuell
VoiceOver und TalkBack erhalten regelmäßige Updates, die die Leistung und Kompatibilität verbessern. Wenn Sie das Betriebssystem Ihres Telefons aktuell halten, stellen Sie sicher, dass Sie die bestmögliche Screenreader-Erfahrung erhalten.
7. Geben Sie Feedback
Wenn Sie auf ein Barrierefreiheitsproblem stoßen – einen Button, der nicht beschriftet ist, einen Bildschirm, der nicht richtig angekündigt wird, eine KI-Fehlidentifikation, die wiederholt auftritt – melden Sie es. Die Barrierefreiheit von Nutrola verbessert sich auf Grundlage des Feedbacks echter Nutzer, und Berichte von sehbehinderten Nutzern haben in unserem Entwicklungsprozess Priorität.
Was noch verbessert werden muss
Es wäre unfair gegenüber unseren sehbehinderten Nutzern, den aktuellen Stand der Dinge als gelöstes Problem darzustellen. Das ist es nicht. Es bestehen erhebliche Lücken, und wir möchten transparent darüber sein.
KI-Genauigkeit bei komplexen und gemischten Gerichten
Die KI-Lebensmittelerkennung ist gut, aber nicht perfekt. Sie verarbeitet klar getrennte Lebensmittel – ein Stück gegrilltes Hähnchen neben einem Haufen Reis neben gedämpftem Gemüse – viel besser als gemischte Gerichte, Aufläufe, Eintöpfe oder Lebensmittel, bei denen Zutaten geschichtet oder verborgen sind. Ein Burrito ist eine besondere Herausforderung, da die KI nicht sehen kann, was sich in der Tortilla befindet.
Für sehbehinderte Nutzer, die die Schätzungen der KI nicht visuell überprüfen können, ist diese Einschränkung gravierender. Ein sehender Nutzer könnte einen Blick auf die Schätzung der KI werfen und sofort bemerken, dass der Käse auf seinem Sandwich fehlt. Ein sehbehinderter Nutzer könnte diesen Fehler nicht bemerken, es sei denn, er überprüft aktiv jede Zutat, indem er sich die vollständige Aufschlüsselung anhört.
Wir arbeiten daran, KI-Aufforderungen zu verbessern, die klärende Fragen stellen – „Enthält dieses Gericht Käse?“ „Gibt es eine Soße darauf?“ – um Lücken zu schließen, die die Kamera nicht sehen kann.
Onboarding und erste Einrichtung
Der Einrichtungsprozess – ein Konto erstellen, Körpermetriken eingeben, Kalorien- und Makroziele festlegen – ist komplexer als die tägliche Nutzung und umfasst mehr Formularfelder, Dropdowns und mehrstufige Abläufe. Obwohl diese screenreader-kompatibel sind, ist die Erfahrung nicht so reibungslos, wie wir es uns wünschen. Wir überarbeiten den Onboarding-Prozess mit Barrierefreiheit als primärem Entwurfsfaktor, nicht als sekundärem.
Restaurant- und Takeout-Mahlzeiten
Essen gehen stellt für alle Nutzer Herausforderungen dar, aber besonders für sehbehinderte Nutzer. Restaurantgerichte werden oft so angerichtet, dass die Portionsgrößen obscuriert sind, Soßen können unter dem Essen und nicht oben sein, und die Umgebungsbeleuchtung in Restaurants kann die Genauigkeit der KI-Fotos verringern. Die Sprachprotokollierung hilft hier – die Beschreibung dessen, was Sie bestellt haben, ist oft genauer als das Fotografieren in einem dunklen Restaurant – aber der Prozess ist immer noch weniger präzise als das Protokollieren von selbstgekochten Mahlzeiten.
Gemeinschafts- und soziale Funktionen
Viele Kalorienzähler-Apps beinhalten soziale Funktionen: Mahlzeiten teilen, Fortschritte mit Freunden vergleichen, an Herausforderungen teilnehmen. Diese Funktionen sind oft die am wenigsten zugänglichen Teile einer App, da sie stark auf visuelle Layouts, Bilder und benutzerdefinierte UI-Komponenten angewiesen sind. Die sozialen Funktionen von Nutrola sind noch in der Entwicklung, und wir sind entschlossen, sie von Anfang an barrierefrei zu gestalten, anstatt sie später nachträglich anzupassen.
Regionale und kulturelle Lebensmittelkennung
KI-Lebensmittelerkennungsmodelle werden auf Datensätzen trainiert. Diese Datensätze sind tendenziell auf westliche Küchen ausgerichtet. Das bedeutet, dass die KI bei der Identifizierung eines Hamburgers genauer ist als bei der Identifizierung von Jollof-Reis, Dosa oder Injera. Dies ist eine systematische Verzerrung in den Trainingsdaten der KI, die die gesamte Branche angehen muss. Nutrola erweitert aktiv seine Trainingsdaten, um ein breiteres Spektrum globaler Küchen einzubeziehen, aber diese Arbeit ist im Gange und die Diskrepanz ist heute real.
Das größere Bild: Ernährung als Recht, nicht als Privileg
In der Technologiebranche gibt es eine Tendenz, Barrierefreiheit als ein Feature zu betrachten – etwas, das man einem Produkt hinzufügt, um eine Nischenzielgruppe zu bedienen. Diese Sichtweise ist falsch. Barrierefreiheit ist eine Frage, ob eine Person einen grundlegenden Aspekt ihrer Gesundheit verwalten kann oder nicht.
Ernährung beeinflusst alles: Energie, Risiko chronischer Krankheiten, psychische Gesundheit, körperliche Leistungsfähigkeit, Langlebigkeit. Kalorien- und Nährstoffverfolgung ist eines der evidenzbasiertesten Werkzeuge zur Verbesserung der Ernährungsgewohnheiten. Wenn Tracking-Tools unzugänglich sind, verpassen sehbehinderte Menschen nicht nur eine Bequemlichkeit. Sie werden von einer bewährten Gesundheitsintervention ausgeschlossen.
Das Americans with Disabilities Act, das European Accessibility Act und ähnliche Gesetze weltweit legen fest, dass digitale Dienste für Menschen mit Behinderungen zugänglich sein sollten. Aber die rechtliche Einhaltung ist der Boden, nicht die Decke. Das Ziel sollte eine Erfahrung sein, die nicht nur technisch nutzbar, sondern wirklich gut ist – eine, die ein sehbehinderter Nutzer einem Freund empfehlen würde, nicht eine, die er toleriert, weil es keine bessere Option gibt.
Marcus brachte es auf den Punkt: „Ich möchte keine App, die trotz meiner Behinderung funktioniert. Ich möchte eine App, die unabhängig davon funktioniert. Das ist ein Unterschied. Die erste fühlt sich wie Wohltätigkeit an. Die zweite fühlt sich wie gute Technik an.“
Häufig gestellte Fragen
Kann eine völlig blinde Person Nutrola zum Kalorienzählen verwenden?
Ja. Nutrola ist so konzipiert, dass es vollständig mit VoiceOver auf iOS und TalkBack auf Android funktioniert. Alle Kernfunktionen – Lebensmittelprotokollierung per Foto, Lebensmittelprotokollierung per Sprache, Anzeigen von täglichen Zusammenfassungen, Anpassen von Einträgen und Festlegen von Ernährungszielen – sind über Screenreader zugänglich. Sie benötigen keine nutzbare Sicht, um die App zu bedienen, obwohl die Hilfe eines sehenden Menschen bei der ersten Einrichtung hilfreich sein kann, wenn Sie neu in der App sind.
Wie genau ist die KI-Bilderkennung beim Kalorienzählen?
Die KI-Bilderkennung ist ein starkes Schätzwerkzeug, kein Präzisionsinstrument. Bei klar sichtbaren, gut getrennten Lebensmitteln liegt die Genauigkeit typischerweise innerhalb von 10 bis 15 Prozent des tatsächlichen Kaloriengehalts. Bei gemischten Gerichten sinkt die Genauigkeit. Wir empfehlen, Sprachkorrekturen nach der Fotografie zu verwenden, um die Genauigkeit zu verbessern – zum Beispiel anzugeben, dass Sie Käse oder Öl hinzugefügt haben, die möglicherweise im Foto nicht sichtbar sind.
Funktioniert die Sprachprotokollierung auch mit Akzenten und nicht-muttersprachlichen Sprechern?
Die Spracherkennung von Nutrola verwendet eine fortschrittliche Spracherkennung, die eine Vielzahl von Akzenten und Sprachmustern verarbeitet. Wenn Sie Sprachdiktat auf Ihrem Telefon zum Texten verwenden können, sollten Sie in der Lage sein, die Sprachprotokollierung in Nutrola zu nutzen. Die KI, die Lebensmittelbeschreibungen interpretiert, ist darauf ausgelegt, gesprächige und informelle Sprache zu verstehen, sodass Sie keine präzisen oder technischen Begriffe verwenden müssen.
Ist Nutrola für sehbehinderte Nutzer kostenlos?
Die Preisgestaltung von Nutrola ist für alle Nutzer gleich. Wir haben keine separate Stufe für sehbehinderte Nutzer, da die Barrierefreiheit in das Kernprodukt integriert ist und nicht hinter einem Premium-Plan verborgen ist. Die kostenlose Stufe umfasst Sprachprotokollierung und Fotoprotokollierung. Premium-Funktionen wie erweiterte Makroverfolgung, wöchentliche Berichte und Trendanalysen sind über ein Abonnement verfügbar.
Kann ich Nutrola mit einem Braille-Display verwenden?
Ja. Da Nutrola vollständig mit VoiceOver und TalkBack kompatibel ist, funktioniert es mit Braille-Displays, die mit Ihrem Telefon verbunden sind. Alle Textinhalte, die vom Screenreader angekündigt werden, werden auch auf dem Braille-Display ausgegeben, einschließlich Lebensmittelbeschreibungen, Kalorienzahlen und Makronährstoffaufstellungen.
Wie geht Nutrola mit Portionsgrößen um, wenn ich keine Mengen visuell schätzen kann?
Das ist eine ehrliche Herausforderung. Die KI von Nutrola schätzt Portionsgrößen anhand von Fotos, was hilft, aber nicht immer präzise ist. Wir empfehlen, einfache Messwerkzeuge – eine Küchenwaage, Messbecher – beim Zubereiten von Lebensmitteln zu verwenden. Im Laufe der Zeit entwickeln Sie ein körperliches Gefühl dafür, wie Standardportionen sich anfühlen und wie viel sie wiegen, was sowohl Ihre Schätzungen als auch Ihre Fähigkeit verbessert, die KI zu korrigieren, wenn sie falsch liegt.
Was soll ich tun, wenn ich auf ein Barrierefreiheitsproblem in der App stoße?
Melden Sie es über die Feedback-Funktion in der App, die über VoiceOver und TalkBack zugänglich ist. Sie können auch direkt unser Support-Team per E-Mail kontaktieren. Barrierefreiheitsfehlerberichte werden in unserem Entwicklungsprozess priorisiert. Wir schätzen jeden Bericht, da er uns hilft, Probleme zu finden und zu beheben, die unsere internen Tests möglicherweise übersehen haben.
Sind die wöchentlichen und monatlichen Berichte zugänglich?
Ja. Alle Berichtseiten sind mit den richtigen Barrierefreiheitsbeschriftungen und einer logischen Lesereihenfolge für Screenreader gestaltet. Zusammenfassungen können auch per Sprache abgerufen werden – die Frage „Gib mir meine wöchentliche Zusammenfassung“ wird eine gesprochene Übersicht über Ihre durchschnittlichen täglichen Kalorien, Makronährstofftrends und Konsistenzrate der letzten sieben Tage zurückgeben.
Ausblick
Die Kluft zwischen dem, was Kalorienzähler-Apps von Nutzern verlangen, und dem, was sehbehinderte Nutzer bequem bereitstellen können, war lange Zeit groß. KI-Bilderkennung und Spracheingabe haben diese Kluft dramatisch verringert. Nicht vollständig. Aber dramatisch.
Die verbleibende Arbeit ist nicht glamourös. Es erfordert akribische Aufmerksamkeit für Barrierefreiheitsbeschriftungen. Es geht darum, die Trainingsdaten der KI zu erweitern, um mehr Küchen einzubeziehen. Es geht darum, jede neue Funktion vor der Veröffentlichung mit einem Screenreader zu testen. Es geht darum, auf Nutzer wie Marcus zu hören, wenn sie uns sagen, was funktioniert und was nicht.
Marcus erzählte uns kürzlich, dass er nun seit vier Monaten seine Mahlzeiten konsequent verfolgt – die längste Serie, die er jemals mit einer Gesundheits-App aufrechterhalten hat. „Vier Monate klingen nicht nach viel“, sagte er. „Aber wenn man sechs Jahre lang versucht hat, etwas zu tun und jedes Mal gescheitert ist, fühlt sich das wie der Beweis an, dass es endlich möglich ist.“
Es ist möglich. Und es hätte schon lange möglich sein sollen. Die Technologie war vorhanden. Was fehlte, war das Engagement, sie im Dienste aller Nutzer zu nutzen, nicht nur derjenigen, für die die Branche am einfachsten zu gestalten war.
Wir sind noch nicht fertig. Aber wir werden auch nicht aufhören.
Bereit, Ihr Ernährungstracking zu transformieren?
Schließen Sie sich Tausenden an, die ihre Gesundheitsreise mit Nutrola transformiert haben!