Śledzenie kalorii z wadą wzroku: Jak AI i głos to umożliwiają

Tradycyjne aplikacje do śledzenia kalorii były projektowane z myślą o użytkownikach widzących. Rozpoznawanie zdjęć przez AI i interfejsy głosowe w końcu czynią śledzenie żywności dostępnym dla wszystkich.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

Marcus ma 42 lata, pracuje jako administrator baz danych i od późnych lat dwudziestych zmaga się z postępującą wadą wzroku spowodowaną retinitis pigmentosa. Dostrzega światło i kształty, ale odczytywanie małego tekstu na ekranie jest dla niego niemożliwe bez znacznej technologii wspomagającej. Od lat chciał śledzić swoje kalorie. Jego lekarz to zalecał. Jego dietetyk to zalecał. Próbował — naprawdę próbował — przynajmniej czterech różnych aplikacji przez sześć lat. Każda z nich pokonała go w ciągu tygodnia.

"Ironia nie umknęła mojej uwadze," powiedział nam Marcus. "Jestem osobą, która pracuje z danymi przez cały dzień. Uwielbiam liczby. Uwielbiam wzory. Śledzenie kalorii powinno być moją pasją. Ale każda aplikacja, którą próbowałem, była zbudowana tak, jakby jedynymi osobami, które jedzą jedzenie, byli ludzie z idealnym wzrokiem."

Marcus nie jest sam. Według Światowej Organizacji Zdrowia, na całym świecie co najmniej 2,2 miliarda ludzi ma problemy z widzeniem w bliskiej lub dalekiej odległości. W Stanach Zjednoczonych około 12 milionów osób w wieku 40 lat i starszych ma jakąś formę upośledzenia wzroku, w tym 1 milion, który jest niewidomy. To nie są małe liczby. A jednak przemysł śledzenia kalorii historycznie traktował dostępność jako coś drugorzędnego — jeśli w ogóle brano to pod uwagę.

Artykuł ten bada konkretne bariery, jakie tradycyjne aplikacje do śledzenia kalorii stawiają osobom z wadami wzroku, jak nowe technologie, takie jak rozpoznawanie zdjęć przez AI i wejścia głosowe, zmieniają to, co jest możliwe, oraz jak wygląda korzystanie z Nutrola dla kogoś takiego jak Marcus. Będziemy szczerzy co do tego, co działa, co wciąż jest niewystarczające i co przemysł musi zrobić dalej.

Bariery: Dlaczego tradycyjne śledzenie kalorii zawodzi użytkowników z wadami wzroku

Aby zrozumieć problem, trzeba wiedzieć, co tak naprawdę wymaga śledzenie kalorii od użytkownika. To nie jest pojedyncza akcja. To łańcuch precyzyjnych, wizualnie intensywnych mikro-zadań wykonywanych wielokrotnie każdego dnia. Dla użytkownika widzącego każdy krok jest drobny. Dla użytkownika z ograniczonym wzrokiem lub niewidomego każdy krok może być przeszkodą.

Mały tekst i gęste interfejsy

Większość aplikacji do śledzenia kalorii wyświetla na jednym ekranie ogromną ilość danych liczbowych. Dzienny bilans kalorii, podział makroskładników, podsumowania posiłków, paski postępu, wskaźniki procentowe, porównania celów. Informacje te zazwyczaj są prezentowane w małych czcionkach o cienkiej wadze, często w niskokontrastowych kombinacjach kolorystycznych — na przykład jasnoszary na białym tle lub zielony tekst na nieco innym odcieniu zielonego tła.

Dla użytkownika polegającego na powiększeniu ekranu, poruszanie się po takim interfejsie oznacza ciągłe przesuwanie po ekranie, tracąc kontekst przestrzenny z każdym przesunięciem. Architektura informacji zakłada, że można zobaczyć cały pulpit nawigacyjny na pierwszy rzut oka. Gdy można zobaczyć tylko fragment na raz, mentalny model się załamuje.

Dla użytkownika korzystającego z czytnika ekranu, takiego jak VoiceOver lub TalkBack, problem jest inny, ale równie poważny. Wiele aplikacji do śledzenia kalorii używa niestandardowych komponentów UI — okrągłych wykresów postępu, animowanych pierścieni, suwaków do regulacji — które nie są zbudowane z odpowiednimi etykietami dostępności. Czytnik ekranu napotyka pierścień postępu i ogłasza "obraz" lub, co gorsza, nic. Użytkownik słyszy ciszę tam, gdzie powinien być jego bilans kalorii.

Problem wyszukiwania i wyboru

Ręczne logowanie żywności w tradycyjnej aplikacji wymaga przeszukiwania bazy danych. Wpisujesz "pierś z kurczaka", a aplikacja zwraca listę wyników: "Pierś z kurczaka, grillowana, bez skóry, 4 oz" oraz "Pierś z kurczaka, pieczona, ze skórą, 100g" i "Pierś z kurczaka, panierowana, mrożona, Tyson" oraz piętnaście innych wariantów. Każdy wpis różni się metodą przygotowania, marką i wielkością porcji. Wybór odpowiedniego wymaga czytania i porównywania wielu linii małego tekstu.

Dla użytkownika korzystającego z czytnika ekranu oznacza to słuchanie każdego wyniku odczytywanego na głos, sekwencyjnie, zapamiętywanie różnic w pamięci roboczej i poruszanie się tam i z powrotem, aby porównać. To, co zajmuje użytkownikowi widzącemu cztery sekundy, może zająć użytkownikowi czytnika ekranu dwie minuty. Pomnóż to przez każdy produkt spożywczy w każdym posiłku, każdego dnia, a obciążenie poznawcze i czasowe staje się nie do zniesienia.

Skany kodów kreskowych: fałszywa obietnica prostoty

Wiele aplikacji promuje skanowanie kodów kreskowych jako najłatwiejszą metodę wprowadzania danych. Skieruj telefon na kod kreskowy, a jedzenie zostanie natychmiast zarejestrowane. Proste, prawda?

Nie, jeśli nie widzisz kodu kreskowego.

Skanowanie kodów kreskowych wymaga precyzyjnego wyrównania wizualnego. Użytkownik musi zlokalizować kod kreskowy na opakowaniu, ustawić kamerę telefonu tak, aby kod znajdował się w określonym obszarze wizjera, trzymać telefon stabilnie i czekać na zarejestrowanie skanu. Większość aplikacji nie zapewnia żadnej informacji dźwiękowej ani haptycznej w tym procesie. Nie ma tonu, który staje się wyższy, gdy zbliżasz się do wyrównania. Nie ma wibracji, gdy kod kreskowy wchodzi w kadr. Użytkownik jest zobowiązany do patrzenia na ekran i sprawdzania, czy kod jest wyrównany.

Dla osoby z ograniczonym wzrokiem czasami można to zrealizować z wysiłkiem i cierpliwością. Dla osoby niewidomej jest to praktycznie niefunkcjonalne bez pomocy osoby widzącej.

Szacowanie wielkości porcji

Nawet po wybraniu produktu użytkownicy muszą określić ilość. Tradycyjne aplikacje przedstawiają to jako pole tekstowe lub koło wyboru — "1 szklanka", "4 oz", "1 średnie". Te kontrolki są często słabo oznaczone dla czytników ekranu. Koła wyboru, w szczególności, są notorycznie trudne do użycia z VoiceOver, ponieważ każdy krok przewijania musi być ogłoszony, zanim użytkownik zdecyduje, czy kontynuować przewijanie.

Co więcej, samo szacowanie porcji często opiera się na porównaniach wizualnych. "Czy to jest średnie jabłko czy duże jabłko?" "Czy to wygląda jak jedna szklanka ryżu czy jedna i pół?" Użytkownicy widzący już mają trudności z tymi ocenami. Dla użytkowników z ograniczonym lub brakiem wzroku, oszacowanie jest jeszcze bardziej niepewne, a aplikacje nie oferują alternatywnej metody.

Efekt kumulacyjny

Żaden z tych barier nie jest koniecznie nie do pokonania samodzielnie, przy wystarczającej cierpliwości i determinacji. Ale śledzenie kalorii to nie jest jednorazowe zadanie. To codzienny nawyk, który musi być powtarzany przy każdym posiłku. Kumulacyjny opór małego tekstu, złożonej nawigacji, niedostępnych kontrolek i wizualnie zależnych metod wprowadzania oznacza, że nawet najbardziej zmotywowany użytkownik z wadami wzroku ostatecznie porzuca ten proces. Nie dlatego, że nie dba o swoją dietę, ale dlatego, że narzędzia nie były stworzone z myślą o nich.

Marcus opisał to doświadczenie wprost: "Czułem się, jakbym próbował przeczytać podręcznik wydrukowany w języku, który mogłem prawie, ale nie do końca zrozumieć. Mogłem uzyskać fragmenty. Ale wysiłek wymagany do uzyskania pełnego obrazu był tak wyczerpujący, że nie było to warte. Więc przestałem. A potem czułem się winny za to, że przestałem, co jest swoją własną formą krzywdy."

Jak rozpoznawanie zdjęć przez AI zmienia sytuację

Pojawienie się rozpoznawania żywności opartego na AI stanowi największy skok w dostępności śledzenia kalorii od wynalezienia samego smartfona. Zasada jest prosta: zamiast przeszukiwać bazę danych, czytać wyniki i wybierać odpowiedni wpis, robisz zdjęcie swojego jedzenia. AI identyfikuje, co znajduje się na talerzu, szacuje wielkości porcji i zwraca podział kalorii oraz makroskładników.

Dla użytkowników widzących jest to wygoda. Dla użytkowników z wadami wzroku to rewolucja.

Dlaczego logowanie zdjęć działa dla użytkowników z ograniczonym wzrokiem i niewidomych

Zrobienie zdjęcia nie wymaga precyzyjnego wyrównania wizualnego, jak skanowanie kodów kreskowych. Jedzenie na talerzu to duży cel. Użytkownik nie musi ustawiać małego kodu kreskowego w prostokącie wizjera. Musi skierować telefon w ogólnym kierunku talerza z odległości około jednego stopy nad nim. Nowoczesne modele AI są wystarczająco odporne, aby poradzić sobie ze zdjęciami robionymi z niedoskonałych kątów, przy zmiennym oświetleniu i bez precyzyjnego kadrowania.

Zarówno iOS, jak i Android oferują funkcje dostępności aparatu, które ogłaszają, gdy twarze lub obiekty są wykrywane w kadrze. Nutrola rozwija to, oferując dźwiękowe potwierdzenie, gdy zdjęcie jedzenia zostało zrobione i jest przetwarzane. Użytkownik słyszy ton potwierdzający, a następnie identyfikację AI odczytaną na głos przez czytnik ekranu: "Zidentyfikowano: grillowana pierś z kurczaka, około sześciu uncji. Brązowy ryż, około jedna szklanka. Gotowana brokuła, około jedna szklanka. Szacunkowa całkowita: 520 kalorii."

Użytkownik następnie potwierdza, dostosowuje lub dodaje pozycje — wszystko przez interfejs dostępny dla czytnika ekranu lub, coraz częściej, przez głos.

Rola AI w redukcji zależności od wzroku

Tradycyjne śledzenie kalorii nakładało ciężar interpretacji danych na oczy użytkownika. AI przenosi ten ciężar na model. Rola użytkownika staje się dostarczenie danych wejściowych — zdjęcia — i przeglądanie wyników — podsumowania, które można dostarczyć dźwiękowo. Złożony krok pośredni wyszukiwania, porównywania i wybierania jest obsługiwany przez AI.

To nie jest drobna poprawa w przepływie pracy. To fundamentalny redesign tego, gdzie wzrok jest wymagany w procesie śledzenia. Zamiast wzroku wymaganego na każdym kroku, jest on wymagany prawie w żadnym kroku.

Wejście głosowe: Drugie przełomowe rozwiązanie

Jeśli rozpoznawanie zdjęć przez AI jest pierwszym filarem dostępnego śledzenia kalorii, wejście głosowe jest drugim.

Logowanie głosowe pozwala użytkownikowi powiedzieć: "Miałem kanapkę z indykiem na pełnoziarnistym chlebie z sałatą, pomidorem i musztardą oraz małe jabłko," a aplikacja przetwarza to zdanie na uporządkowane dane żywieniowe. Bez pisania. Bez wyszukiwania. Bez nawigowania po złożonych menu. Użytkownik mówi, a aplikacja tłumaczy mowę na wpis logu żywności.

Dla użytkowników z wadami wzroku, wejście głosowe eliminuje najbardziej interakcyjnie intensywną część procesu śledzenia. Zastępuje wieloetapowy wizualny przepływ pracy jednym wypowiedzianym zdaniem. Aplikacja następnie odczytuje to, co zrozumiała, użytkownik potwierdza lub poprawia, a wpis jest rejestrowany.

Logowanie głosowe Nutrola jest zaprojektowane tak, aby obsługiwać naturalne, konwersacyjne opisy. Użytkownicy nie muszą mówić w określonym formacie ani używać dokładnych terminów z bazy danych. "Duża miska makaronu z czerwonym sosem i odrobiną parmezanu na wierzchu" to ważny wpis. AI interpretuje opis, mapuje go na dane żywieniowe i przedstawia swoje oszacowanie do przeglądu.

Głos jako narzędzie nawigacyjne

Poza logowaniem żywności, interakcja głosowa może również rozwiązać bariery nawigacyjne, które opisaliśmy wcześniej. Zamiast wizualnie skanować pulpit, użytkownik może zapytać: "Ile kalorii zjadłem dzisiaj?" lub "Jakie było moje spożycie białka w tym tygodniu?" i otrzymać odpowiedź głosową.

Tego rodzaju konwersacyjna interakcja z danymi żywieniowymi zmienia całkowicie relację między użytkownikiem a aplikacją. Aplikacja staje się mniej wizualnym interfejsem do nawigowania, a bardziej asystentem, z którym można się skonsultować. Dla użytkownika z wadami wzroku to różnica między walką z narzędziem a korzystaniem z narzędzia.

Kompatybilność z VoiceOver i TalkBack: Fundament

Funkcje AI i głosu są ważne, ale opierają się na bardziej fundamentalnym wymaganiu: aplikacja musi być w pełni kompatybilna z platformowymi czytnikami ekranu, na których użytkownicy z wadami wzroku polegają na co dzień.

Na iOS tym czytnikiem ekranu jest VoiceOver. Na Androidzie to TalkBack. To nie są opcjonalne dodatki. Dla osoby niewidomej to główne środki interakcji z każdą aplikacją na ich telefonie.

Pełna kompatybilność z czytnikiem ekranu oznacza:

  • Każdy interaktywny element ma opisową etykietę dostępności. Przycisk logujący posiłek jest ogłaszany jako "Przycisk logowania posiłku", a nie "przycisk" lub nic.
  • Każdy element informacyjny przekazuje swoją treść. Całkowita liczba kalorii brzmi "1,450 z 2,200 kalorii spożytych dzisiaj", a nie "pasek postępu, 66 procent" lub po prostu "obraz".
  • Kolejność nawigacji jest logiczna i przewidywalna. Przesuwanie po interfejsie porusza się przez elementy w kolejności, która ma sens semantyczny, a nie w arbitralnej kolejności ustalonej przez wizualny układ.
  • Niestandardowe kontrolki są dostępne. Jeśli aplikacja używa niestandardowego suwaka do regulacji wielkości porcji, ten suwak działa z gestami VoiceOver i ogłasza swoją aktualną wartość i zakres.
  • Zmiany stanu są ogłaszane. Gdy produkt spożywczy zostanie pomyślnie zarejestrowany, czytnik ekranu ogłasza potwierdzenie. Gdy wystąpi błąd, czytnik ekranu ogłasza błąd. Użytkownik nigdy nie zostaje w ciszy, zastanawiając się, co się stało.

Nutrola zainwestowała w kompatybilność z czytnikiem ekranu jako podstawowy wymóg inżynieryjny, a nie łatkę po uruchomieniu. Każda nowa funkcja jest testowana z VoiceOver i TalkBack przed wydaniem. Etykiety dostępności są częścią specyfikacji projektowej, a nie dodawane retroaktywnie po zakończeniu projektu wizualnego.

To nie oznacza, że doświadczenie jest idealne. Nie jest. Są pewne niedoskonałości, a my uczciwie je omówimy później w tym artykule. Ale fundament jest na miejscu i jest utrzymywany przy każdej aktualizacji.

Dzień w życiu Marcusa z Nutrola

Aby to zobrazować, oto jak wygląda typowy dzień Marcusa — administratora baz danych z ograniczonym wzrokiem, którego przedstawiliśmy na początku tego artykułu. Używa Nutrola od około czterech miesięcy.

Poranek

Marcus budzi się i przygotowuje śniadanie: dwa jajka sadzone, kromka pełnoziarnistego chleba z masłem i filiżanka czarnej kawy. Otwiera Nutrola, korzystając z skrótu aplikacji na ekranie głównym — umieszczonego w lewym dolnym rogu, gdzie jego pamięć mięśniowa tego oczekuje. VoiceOver ogłasza "Nutrola", gdy stuknie.

Używa polecenia głosowego: "Zaloguj śniadanie. Dwa jajka sadzone, jedna kromka pełnoziarnistego chleba z masłem, czarna kawa."

Nutrola przetwarza dane wejściowe i odczytuje: "Śniadanie zarejestrowane. Dwa jajka sadzone, 180 kalorii. Jedna kromka pełnoziarnistego chleba z jedną łyżką masła, 165 kalorii. Czarna kawa, 5 kalorii. Całkowite śniadanie: 350 kalorii."

Marcus potwierdza. Cała interakcja zajmuje około piętnastu sekund.

Przedpołudnie

W pracy Marcus bierze przekąskę z kuchni — banana i garść migdałów. Robi szybkie zdjęcie. Nie musi go idealnie kadrować. Trzyma telefon mniej więcej nad jedzeniem, naciska przycisk uchwycenia (który ogłasza VoiceOver) i czeka na ton przetwarzania.

"Zidentyfikowano: jeden średni banan i około jedna uncja migdałów. Szacunkowa całkowita: 270 kalorii."

Marcus wie z doświadczenia, że AI ma tendencję do nieco niedoszacowywania jego porcji migdałów, ponieważ ma duże dłonie i bierze hojne garści. Mówi aplikacji: "Zrób migdały półtorej uncji." Wpis się aktualizuje. Potwierdza.

Obiad

Kafeteria w miejscu pracy Marcusa stawia powszechny problem: mieszane dania, w których poszczególne składniki są trudne do oddzielenia. Dziś ma kurczaka stir-fry na białym ryżu z linii gorącej. Fotografuje to i pozwala AI wykonać swoją pracę.

"Zidentyfikowano: kurczak stir-fry z mieszanymi warzywami na białym ryżu. Szacunkowa całkowita: 680 kalorii. Białko: 35 gramów. Węglowodany: 72 gramy. Tłuszcz: 24 gramy."

Marcus uważa, że porcja ryżu jest większa niż oszacowała AI. Dostosowuje: "Zrób ryż półtorej szklanki zamiast jednej." Całkowite wartości się aktualizują i są odczytywane na głos.

Południe

Marcus pyta Nutrolę o status. "Jak mi idzie dzisiaj?"

Aplikacja odpowiada: "Spożyłeś jak dotąd 1,340 kalorii. Twój dzienny cel to 2,100 kalorii. Pozostało Ci 760 kalorii. Twoje białko jak dotąd to 78 gramów z docelowych 140 gramów."

To zajmuje trzy sekundy. Bez skanowania wizualnego. Bez nawigacji po pulpicie. Tylko pytanie i odpowiedź.

Kolacja

W domu Marcus przygotowuje filet z łososia z pieczonymi słodkimi ziemniakami i sałatką. Fotografuje talerz. AI identyfikuje każdy składnik. Potwierdza wpis.

Po kolacji pyta o swoje dzienne podsumowanie. Nutrola odczytuje jego całkowite spożycie, rozbite według posiłków, wraz z jego całkowitymi makroskładnikami i porównaniem do celów. Marcus osiągnął 2,050 kalorii, 132 gramy białka i jest nieco powyżej węglowodanów.

"Cztery miesiące temu nie mogłem powiedzieć w granicach 500 kalorii, co jadłem w danym dniu," powiedział Marcus. "Teraz wiem w rozsądnych granicach błędu. To nie jest mała rzecz. Mój lekarz zauważył różnicę w moim ostatnim panelu krwi. Mój A1C spadł. To jest realne."

Co dla Marcusa ma największe znaczenie

Kiedy zapytano go, co jest najważniejsze w tym doświadczeniu, Marcus nie wspomniał o konkretnej funkcji. Wspomniał o konsekwencji. "Rzecz w dostępności polega na tym, że nie chodzi tylko o to, czy coś jest technicznie możliwe. Chodzi o to, czy jest to zrównoważone. Mogłem zmagać się z niedostępną aplikacją przez jeden posiłek. Może dwa. Ale robienie tego trzy do pięciu razy dziennie, każdego dnia, przez miesiące? To jest miejsce, gdzie wszystko się rozpada. Nutrola to pierwsza aplikacja, w której wymagany wysiłek jest na tyle niski, że mogę to naprawdę kontynuować."

Praktyczne wskazówki dla użytkowników z wadami wzroku, aby rozpocząć śledzenie kalorii

Na podstawie opinii Marcusa i innych użytkowników z naszej społeczności, oto praktyczne strategie na rozpoczęcie.

1. Ustaw logowanie głosowe od pierwszego dnia

Nie zaczynaj od ręcznego wprowadzania i "planuj przejście na głos później." Zacznij od głosu. Ustala to odpowiednie oczekiwania co do poziomu wysiłku i zapobiega wczesnym frustracjom, które mogą zniekształcić twoje postrzeganie procesu.

2. Naucz się techniki zdjęć

Trzymaj telefon około 30 do 45 cm nad talerzem, mniej więcej na środku. Nie musisz widzieć ekranu. Słuchaj potwierdzenia uchwycenia. Jeśli AI błędnie zidentyfikuje coś, popraw to głosowo. Po kilku dniach rozwiniesz niezawodną technikę, która działa prawie zawsze.

3. Używaj stałych dań i porcji

To dobra rada dla każdego, ale szczególnie pomocna dla użytkowników z wadami wzroku. Jeśli codziennie jesz śniadanie z tej samej miski, rozwijasz fizyczne poczucie, jak pełna jest miska i co to odpowiada kalorycznie. Mniej zmiennych oznacza mniej dostosowań do oszacowań AI.

4. Zbuduj rutynę wokół logowania

Loguj każdy posiłek natychmiast po zjedzeniu, zanim przejdziesz do następnej czynności. To zmniejsza szansę na zapomnienie posiłku i eliminuje potrzebę przypominania sobie porcji i składników później w ciągu dnia.

5. Regularnie korzystaj z podsumowania głosowego

Sprawdzaj swoje dzienne sumy głosowo przynajmniej dwa razy dziennie — raz w południe i raz po kolacji. To utrzymuje cię w kontakcie z danymi bez konieczności interakcji z interfejsem wizualnym.

6. Utrzymuj swój czytnik ekranu zaktualizowany

VoiceOver i TalkBack regularnie otrzymują aktualizacje, które poprawiają wydajność i kompatybilność. Utrzymywanie systemu operacyjnego telefonu w aktualnej wersji zapewnia najlepsze możliwe doświadczenie z czytnikiem ekranu.

7. Przekazuj opinie

Jeśli napotkasz problem z dostępnością — przycisk, który nie jest oznaczony, ekran, który nie ogłasza poprawnie, błędna identyfikacja AI, która zdarza się wielokrotnie — zgłoś to. Dostępność Nutrola poprawia się na podstawie rzeczywistych opinii użytkowników, a raporty od osób z wadami wzroku są priorytetowe w naszej kolejce rozwojowej.

Co wciąż wymaga poprawy

Byłoby nam na rękę, gdybyśmy przedstawili obecny stan rzeczy jako rozwiązany problem. Tak nie jest. Pozostają istotne luki, a my chcemy być wobec nich transparentni.

Dokładność AI w przypadku złożonych i mieszanych potraw

Rozpoznawanie żywności przez AI jest dobre, ale nie doskonałe. Lepiej radzi sobie z wyraźnie oddzielonymi potrawami — kawałek grillowanego kurczaka obok górki ryżu obok gotowanych warzyw — niż z mieszanymi daniami, zapiekankami, gulaszami czy potrawami, w których składniki są warstwowane lub ukryte. Burrito to szczególne wyzwanie, ponieważ AI nie może zobaczyć, co jest w tortilli.

Dla użytkowników z wadami wzroku, którzy nie mogą wizualnie sprawdzić przypuszczeń AI, to ograniczenie jest bardziej istotne. Użytkownik widzący może rzucić okiem na oszacowanie AI i natychmiast zauważyć, że pominęło ser w ich kanapce. Użytkownik z wadami wzroku może nie zauważyć tego błędu, chyba że aktywnie przegląda każdy składnik, słuchając pełnego podziału.

Pracujemy nad poprawą podpowiedzi AI, które zadają pytania wyjaśniające — "Czy to danie zawiera ser?" "Czy jest sos?" — aby wypełnić luki, których kamera nie może zobaczyć.

Proces wprowadzania i początkowa konfiguracja

Proces początkowej konfiguracji — tworzenie konta, wprowadzanie danych o ciele, ustalanie celów kalorycznych i makro — jest bardziej złożony niż codzienne użytkowanie i obejmuje więcej pól formularzy, rozwijanych list i wieloetapowych przepływów. Choć są one kompatybilne z czytnikiem ekranu, doświadczenie nie jest tak płynne, jak byśmy chcieli. Redesignujemy proces wprowadzania z dostępnością jako głównym ograniczeniem projektowym, a nie drugorzędnym.

Posiłki w restauracjach i na wynos

Jedzenie na mieście stawia wyzwania przed wszystkimi użytkownikami, ale szczególnie przed użytkownikami z wadami wzroku. Dania w restauracjach często są podawane w sposób, który zaciemnia wielkości porcji, sosy mogą znajdować się pod jedzeniem, a oświetlenie w restauracjach może zmniejszać dokładność zdjęć AI. Logowanie głosowe pomaga tutaj — opisanie, co zamówiłeś, często jest dokładniejsze niż fotografowanie w słabo oświetlonej restauracji — ale proces nadal jest mniej precyzyjny niż logowanie posiłków przygotowanych w domu.

Funkcje społecznościowe i wspólne

Wiele aplikacji do śledzenia kalorii zawiera funkcje społecznościowe: dzielenie się posiłkami, porównywanie postępów z przyjaciółmi, uczestniczenie w wyzwaniach. Te funkcje są często jednymi z najmniej dostępnych części każdej aplikacji, opierając się w dużej mierze na wizualnych układach, obrazach i niestandardowych komponentach UI. Funkcje społecznościowe Nutrola są wciąż w fazie rozwoju, a my zobowiązujemy się do ich budowy w sposób dostępny od samego początku, a nie do ich retrofittingu później.

Rozpoznawanie regionalnych i kulturowych potraw

Modele rozpoznawania żywności AI są trenowane na zestawach danych. Te zestawy danych są zniekształcone w kierunku kuchni zachodnich. Oznacza to, że AI jest bardziej dokładne w identyfikacji hamburgera niż w identyfikacji jollof rice, dosa czy injera. To systemowe uprzedzenie w danych treningowych AI, które cała branża musi rozwiązać. Nutrola aktywnie rozszerza swoje dane treningowe, aby obejmowały szerszy zakres globalnych kuchni, ale ta praca jest w toku, a różnice są realne dzisiaj.

Szerszy kontekst: Żywność jako prawo, a nie przywilej

W branży technologicznej istnieje tendencja do przedstawiania dostępności jako funkcji — czegoś, co dodaje się do produktu, aby służyć niszowej publiczności. To podejście jest błędne. Dostępność to kwestia tego, czy osoba może lub nie może zarządzać fundamentalnym aspektem swojego zdrowia.

Żywność wpływa na wszystko: energię, ryzyko przewlekłych chorób, zdrowie psychiczne, wydajność fizyczną, długość życia. Śledzenie kalorii i składników odżywczych to jedno z najbardziej opartych na dowodach narzędzi dostępnych do poprawy nawyków żywieniowych. Gdy narzędzia do śledzenia są niedostępne, osoby z wadami wzroku nie tylko tracą wygodę. Są wykluczane z udowodnionej interwencji zdrowotnej.

Ustawa o Amerykanach z Niepełnosprawnościami, Europejska Ustawa o Dostępności i podobne przepisy na całym świecie ustanawiają, że usługi cyfrowe powinny być dostępne dla osób z niepełnosprawnościami. Ale zgodność z prawem to podstawa, a nie sufit. Celem powinno być doświadczenie, które nie tylko jest technicznie użyteczne, ale naprawdę dobre — takie, które użytkownik z wadami wzroku poleciłby przyjacielowi, a nie takie, które toleruje, ponieważ nie ma lepszej opcji.

Marcus ujął to w słowach, które utkwiły nam w pamięci: "Nie chcę aplikacji, która działa pomimo mojej niepełnosprawności. Chcę aplikacji, która działa niezależnie od niej. To jest różnica. Pierwsza wydaje się być charytatywna. Druga wydaje się być dobrym inżynierią."

Najczęściej zadawane pytania

Czy całkowicie niewidoma osoba może korzystać z Nutrola do śledzenia kalorii?

Tak. Nutrola jest zaprojektowana tak, aby była w pełni funkcjonalna z VoiceOver na iOS i TalkBack na Androidzie. Wszystkie podstawowe funkcje — logowanie żywności przez zdjęcie, logowanie żywności przez głos, przeglądanie dziennych podsumowań, dostosowywanie wpisów i ustalanie celów żywieniowych — są dostępne za pomocą czytnika ekranu. Nie potrzebujesz żadnego użytecznego wzroku, aby obsługiwać aplikację, chociaż pomoc osoby widzącej może być pomocna podczas początkowej konfiguracji, jeśli jesteś nowy w aplikacji.

Jak dokładne jest rozpoznawanie zdjęć AI do śledzenia kalorii?

Rozpoznawanie zdjęć AI to silne narzędzie szacunkowe, a nie instrument precyzyjny. Dla dobrze widocznych, wyraźnie oddzielonych potraw dokładność wynosi zazwyczaj od 10 do 15 procent rzeczywistej zawartości kalorii. W przypadku mieszanych dań dokładność maleje. Zalecamy korzystanie z poprawek głosowych po uchwyceniu zdjęcia, aby poprawić dokładność — na przykład, określając, że dodałeś ser lub olej, który może nie być widoczny na zdjęciu.

Czy logowanie głosowe działa z akcentami i osobami niebędącymi rodzimymi użytkownikami angielskiego?

Rozpoznawanie mowy Nutrola korzysta z zaawansowanego przetwarzania mowy na tekst, które obsługuje szeroki zakres akcentów i wzorców mowy. Jeśli możesz korzystać z dyktowania głosowego na swoim telefonie do wysyłania wiadomości, powinieneś być w stanie korzystać z logowania głosowego w Nutrola. AI, które interpretuje opisy żywności, jest zaprojektowane tak, aby rozumieć język konwersacyjny i nieformalny, więc nie musisz używać precyzyjnych ani technicznych terminów.

Czy Nutrola jest darmowa dla użytkowników z wadami wzroku?

Ceny Nutrola są takie same dla wszystkich użytkowników. Nie mamy osobnej taryfy dla użytkowników z wadami wzroku, ponieważ dostępność jest wbudowana w podstawowy produkt, a nie zablokowana za planem premium. Darmowa wersja zawiera logowanie głosowe i logowanie zdjęć. Funkcje premium, takie jak zaawansowane śledzenie makroskładników, cotygodniowe raporty i analizy trendów, są dostępne w ramach subskrypcji.

Czy mogę korzystać z Nutrola z wyświetlaczem brajlowskim?

Tak. Ponieważ Nutrola jest w pełni kompatybilna z VoiceOver i TalkBack, działa z wyświetlaczami brajlowskimi podłączonymi do twojego telefonu. Cała treść tekstowa, która jest ogłaszana przez czytnik ekranu, jest również wyświetlana na wyświetlaczu brajlowskim, w tym opisy żywności, całkowite kalorie i podziały makroskładników.

Jak Nutrola radzi sobie z wielkością porcji, jeśli nie mogę wizualnie oszacować ilości?

To jest uczciwe wyzwanie. AI Nutrola szacuje wielkości porcji na podstawie zdjęć, co pomaga, ale nie zawsze jest precyzyjne. Zalecamy korzystanie z prostych narzędzi pomiarowych — wagi kuchennej, miar do gotowania — podczas przygotowywania jedzenia w domu. Z czasem rozwiniesz fizyczne poczucie, jak wyglądają i ważą standardowe porcje, co poprawi zarówno twoje oszacowania, jak i zdolność do poprawiania AI, gdy jest nieprecyzyjne.

Co powinienem zrobić, jeśli napotkam problem z dostępnością w aplikacji?

Zgłoś to za pomocą funkcji opinii w aplikacji, która jest dostępna za pomocą VoiceOver i TalkBack. Możesz także bezpośrednio wysłać e-mail do naszego zespołu wsparcia. Raporty o błędach związanych z dostępnością są oznaczane i priorytetowe w naszym procesie rozwoju. Doceniamy każdy raport, ponieważ pomaga nam znaleźć i naprawić problemy, które mogły umknąć naszym wewnętrznym testom.

Czy raporty tygodniowe i miesięczne są dostępne?

Tak. Wszystkie ekrany raportów są zaprojektowane z odpowiednimi etykietami dostępności i logiczną kolejnością odczytu dla czytników ekranu. Podsumowania można również uzyskać głosowo — pytając "Daj mi moje tygodniowe podsumowanie", otrzymasz ustne przegląd twoich średnich dziennych kalorii, trendów makroskładników i wskaźnika spójności za ostatnie siedem dni.

W przyszłość

Przerwa między tym, co wymagają aplikacje do śledzenia kalorii od użytkowników, a tym, co użytkownicy z wadami wzroku mogą komfortowo dostarczyć, była szeroka przez długi czas. Rozpoznawanie zdjęć przez AI i wejście głosowe znacznie ją zawęziły. Nie całkowicie. Ale znacznie.

Praca, która pozostała, nie jest efektowna. To skrupulatna dbałość o etykiety dostępności. To rozszerzanie danych treningowych AI, aby obejmowały więcej kuchni. To testowanie każdej nowej funkcji z czytnikiem ekranu przed jej wydaniem. To słuchanie użytkowników takich jak Marcus, gdy mówią nam, co działa, a co nie.

Marcus niedawno powiedział nam, że teraz śledzi swoje posiłki konsekwentnie przez cztery miesiące — najdłuższy okres, jaki kiedykolwiek utrzymał z jakąkolwiek aplikacją zdrowotną. "Cztery miesiące nie brzmią jak wiele," powiedział. "Ale kiedy próbujesz coś robić przez sześć lat i za każdym razem ponosisz porażkę, cztery miesiące wydają się dowodem, że to w końcu możliwe."

To możliwe. I powinno być możliwe już dawno temu. Technologia istniała. To, co brakowało, to zaangażowanie w jej wykorzystanie w służbie każdego użytkownika, a nie tylko tych, dla których branża uznała, że łatwiej jest projektować.

Nie skończyliśmy. Ale też nie zamierzamy się zatrzymywać.

Gotowy, aby przeksztalcic sledzenie zywienia?

Dolacz do tysiecy osob, ktore przeksztalcily swoja podroz zdrowotna z Nutrola!