Suivi des calories avec une déficience visuelle : comment l'IA et la voix rendent cela possible

Les applications traditionnelles de suivi des calories ont été conçues pour les utilisateurs voyants. La reconnaissance photo par IA et les interfaces vocales rendent enfin le suivi nutritionnel accessible à tous.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

Marcus a 42 ans, travaille comme administrateur de base de données et souffre d'une déficience visuelle progressive depuis la fin de sa vingtaine en raison d'une rétinite pigmentaire. Il peut percevoir la lumière et les formes, mais lire de petits textes sur un écran n'est pas réalisable sans une technologie d'assistance significative. Pendant des années, il a voulu suivre ses calories. Son médecin le lui a recommandé. Sa nutritionniste le lui a recommandé. Il a essayé --- vraiment essayé --- au moins quatre applications différentes sur six ans. Chacune l'a vaincu en moins d'une semaine.

"L'ironie ne m'échappe pas," nous a dit Marcus. "Je suis une personne qui travaille avec les données toute la journée. J'aime les chiffres. J'aime les modèles. Le suivi des calories devrait être mon truc. Mais chaque application que j'ai essayée a été construite comme si les seules personnes qui mangent étaient celles avec une vision parfaite."

Marcus est loin d'être seul. Selon l'Organisation mondiale de la Santé, au moins 2,2 milliards de personnes dans le monde ont une déficience visuelle de près ou de loin. Aux États-Unis seulement, environ 12 millions de personnes âgées de 40 ans et plus ont une forme de déficience visuelle, dont 1 million qui sont aveugles. Ce ne sont pas des petits chiffres. Et pourtant, l'industrie du suivi des calories a historiquement traité l'accessibilité comme une réflexion après coup --- si elle a été envisagée du tout.

Cet article examine les barrières spécifiques que les applications traditionnelles de suivi des calories présentent aux personnes ayant une déficience visuelle, comment les technologies émergentes comme la reconnaissance photo par IA et la saisie vocale changent ce qui est possible, et à quoi ressemble réellement l'expérience d'utilisation de Nutrola pour quelqu'un comme Marcus. Nous serons honnêtes sur ce qui fonctionne, ce qui manque encore, et ce que l'industrie doit faire ensuite.

Les barrières : pourquoi le suivi traditionnel des calories échoue pour les utilisateurs malvoyants

Pour comprendre le problème, vous devez comprendre ce que le suivi des calories exige réellement d'un utilisateur. Ce n'est pas une action unique. C'est une chaîne de micro-tâches précises et visuellement intensives effectuées plusieurs fois par jour, tous les jours. Pour un utilisateur voyant, chaque étape est mineure. Pour un utilisateur malvoyant ou aveugle, chaque étape peut être un mur.

Texte minuscule et interfaces denses

La plupart des applications de suivi des calories affichent une quantité étonnante de données numériques sur un seul écran. Totaux caloriques quotidiens, répartitions des macronutriments, sous-totaux repas par repas, barres de progression, indicateurs de pourcentage, comparaisons d'objectifs. Ces informations sont généralement rendues en petites polices avec des épaisseurs fines, souvent dans des combinaisons de couleurs à faible contraste --- gris clair sur blanc, par exemple, ou texte vert sur un fond d'une teinte légèrement différente de vert.

Pour un utilisateur s'appuyant sur l'agrandissement d'écran, naviguer ce type d'interface signifie constamment balayer l'écran, perdant le contexte spatial à chaque balayage. L'architecture de l'information suppose que vous pouvez voir tout le tableau de bord d'un coup d'œil. Lorsque vous ne pouvez voir qu'un fragment à la fois, le modèle mental s'effondre.

Pour un utilisateur s'appuyant sur un lecteur d'écran comme VoiceOver ou TalkBack, le problème est différent mais tout aussi grave. De nombreuses applications de suivi des calories utilisent des composants d'interface personnalisés --- graphiques de progression circulaires, anneaux animés, curseurs à glisser pour ajuster --- qui ne sont pas construits avec des étiquettes d'accessibilité appropriées. Un lecteur d'écran rencontre un anneau de progression et annonce "image" ou, pire, rien du tout. L'utilisateur entend le silence là où son total calorique devrait être.

Le problème de recherche et de sélection

Enregistrer manuellement de la nourriture dans une application traditionnelle nécessite de rechercher une base de données. Vous tapez "poitrine de poulet", et l'application renvoie une liste de résultats : "Poitrine de poulet, grillée, sans peau, 4 oz" et "Poitrine de poulet, rôtie, avec peau, 100g" et "Tenders de poitrine de poulet, panés, surgelés, Tyson" et quinze autres variations. Chaque entrée diffère par la méthode de préparation, la marque et la taille de la portion. Sélectionner la bonne entrée nécessite de lire et de comparer plusieurs lignes de petit texte.

Pour un utilisateur de lecteur d'écran, cela signifie écouter chaque résultat lu à voix haute, séquentiellement, retenir les différences en mémoire de travail, et naviguer avant et arrière pour comparer. Ce qui prend quatre secondes à un utilisateur voyant peut prendre deux minutes à un utilisateur de lecteur d'écran. Multipliez cela par chaque article alimentaire dans chaque repas, chaque jour, et le fardeau cognitif et temporel devient insoutenable.

Scan de code-barres : une fausse promesse de simplicité

De nombreuses applications promeuvent le scan de code-barres comme leur méthode de saisie la plus simple. Pointez votre téléphone vers un code-barres, et la nourriture est enregistrée instantanément. Simple, non ?

Pas si vous ne pouvez pas voir le code-barres.

Le scan de code-barres nécessite un alignement visuel précis. L'utilisateur doit localiser le code-barres sur l'emballage, positionner l'appareil photo du téléphone de manière à ce que le code-barres tombe dans une région spécifique du viseur, maintenir le téléphone stable et attendre que le scan s'enregistre. La plupart des applications ne fournissent aucun retour audio ou haptique pendant ce processus. Il n'y a pas de ton qui augmente à mesure que vous vous rapprochez de l'alignement. Il n'y a pas de vibration lorsque le code-barres entre dans le cadre. L'utilisateur est censé regarder l'écran et voir si le code-barres est aligné.

Pour une personne malvoyante, cela peut parfois être géré avec effort et patience. Pour une personne aveugle, c'est effectivement non fonctionnel sans assistance voyante.

Estimation de la taille des portions

Même après avoir sélectionné un article alimentaire, les utilisateurs doivent spécifier une quantité. Les applications traditionnelles présentent cela comme un champ de texte ou une roue de sélection --- "1 tasse", "4 oz", "1 moyen". Ces commandes sont souvent mal étiquetées pour les lecteurs d'écran. Les roues de sélection, en particulier, sont notoirement difficiles à utiliser avec VoiceOver, car chaque incrément de défilement doit être annoncé avant que l'utilisateur puisse décider s'il faut continuer à faire défiler.

Plus fondamentalement, l'estimation des portions elle-même s'appuie souvent sur une comparaison visuelle. "Est-ce une pomme moyenne ou une grande pomme ?" "Cela ressemble-t-il à une tasse de riz ou une tasse et demie ?" Les utilisateurs voyants ont déjà du mal avec ces jugements. Pour les utilisateurs ayant une vision limitée ou nulle, l'estimation est encore plus incertaine, et les applications ne fournissent aucune méthode alternative.

L'effet cumulatif

Aucune de ces barrières individuellement n'est nécessairement insurmontable en soi, avec suffisamment de patience et de détermination. Mais le suivi des calories n'est pas une tâche unique. C'est une habitude quotidienne qui doit être répétée à chaque repas. La friction cumulée de petit texte, de navigation complexe, de commandes inaccessibles et de méthodes de saisie dépendantes de la vision signifie que même l'utilisateur malvoyant le plus motivé finit par abandonner le processus. Non pas parce qu'ils ne se soucient pas de leur nutrition, mais parce que les outils n'ont pas été construits pour eux.

Marcus a décrit l'expérience brutalement : "Cela ressemblait à essayer de lire un manuel qui était imprimé dans une langue que je pouvais presque mais pas tout à fait comprendre. Je pouvais obtenir des fragments. Mais l'effort nécessaire pour obtenir l'image complète était si épuisant que cela n'en valait pas la peine. Alors j'ai arrêté. Et puis je me sentais coupable d'avoir arrêté, ce qui est un autre genre de préjudice."

Comment la reconnaissance photo par IA change l'équation

L'arrivée de la reconnaissance alimentaire alimentée par l'IA représente le saut d'accessibilité le plus significatif dans le suivi des calories depuis l'invention du smartphone lui-même. Le principe est simple : au lieu de rechercher une base de données, de lire les résultats et de sélectionner la bonne entrée, vous prenez une photo de votre nourriture. L'IA identifie ce qui est dans l'assiette, estime les tailles des portions et renvoie une répartition calorique et de macronutriments.

Pour les utilisateurs voyants, c'est une commodité. Pour les utilisateurs malvoyants, c'est transformateur.

Pourquoi la photo par journalisation fonctionne pour les utilisateurs malvoyants et aveugles

Prendre une photo ne nécessite pas l'alignement visuel précis que le scan de code-barres exige. La nourriture dans une assiette est une grande cible. L'utilisateur n'a pas besoin d'aligner un petit code-barres dans un rectangle de viseur. Il doit pointer son téléphone dans la direction générale de son assiette à environ un pied au-dessus. Les modèles d'IA modernes sont assez robustes pour gérer des photos prises sous des angles imparfaits, avec un éclairage variable et sans cadrage précis.

iOS et Android fournissent tous deux des fonctionnalités d'accessibilité de l'appareil photo qui annoncent lorsque des visages ou des objets sont détectés dans le cadre. Nutrola s'appuie là-dessus en fournissant une confirmation audio lorsqu'une photo alimentaire a été capturée et est en cours de traitement. L'utilisateur entend un ton de confirmation, suivi de l'identification de l'IA lue à haute voix par le lecteur d'écran : "Identifié : poitrine de poulet grillée, environ six onces. Riz brun, environ une tasse. Brocoli vapeur, environ une tasse. Total estimé : 520 calories."

L'utilisateur confirme ensuite, ajuste ou ajoute des articles --- le tout via une interface accessible par lecteur d'écran ou, de plus en plus, par voix.

Le rôle de l'IA dans la réduction de la dépendance visuelle

Le suivi traditionnel des calories mettait le fardeau de l'interprétation des données sur les yeux de l'utilisateur. L'IA déplace ce fardeau vers le modèle. Le rôle de l'utilisateur devient de fournir une entrée --- une photo --- et de revoir la sortie --- un résumé qui peut être livré de manière audible. L'étape intermédiaire complexe de recherche, de comparaison et de sélection est gérée par l'IA.

Ce n'est pas une amélioration mineure du flux de travail. C'est une refondation fondamentale de l'endroit où la vision est requise dans le processus de suivi. Au lieu que la vision soit requise à chaque étape, elle est requise à presque aucune étape.

Saisie vocale : la deuxième percée

Si la reconnaissance photo par IA est le premier pilier du suivi des calories accessible, la saisie vocale est le deuxième.

L'enregistrement vocal permet à un utilisateur de dire : "J'ai eu un sandwich à la dinde sur blé complet avec de la laitue, de la tomate et de la moutarde, et une petite pomme," et d'avoir l'application analyser cette phrase en données nutritionnelles structurées. Pas de frappe. Pas de recherche. Pas de navigation dans des menus complexes. L'utilisateur parle, et l'application traduit la parole en une entrée de journal alimentaire.

Pour les utilisateurs malvoyants, la saisie vocale élimine la partie la plus intensive en interaction du processus de suivi. Elle remplace un flux de travail visuel en plusieurs étapes par une seule phrase parlée. L'application lit ensuite ce qu'elle a compris, l'utilisateur confirme ou corrige, et l'entrée est enregistrée.

L'enregistrement vocal de Nutrola est conçu pour gérer des descriptions naturelles et conversationnelles. Les utilisateurs n'ont pas besoin de parler dans un format spécifique ou d'utiliser des termes exacts de base de données. "Un grand bol de pâtes avec sauce rouge et un peu de parmesan sur le dessus" est une entrée valide. L'IA interprète la description, la mappe aux données nutritionnelles et présente son estimation pour examen.

La voix comme outil de navigation

Au-delà de l'enregistrement d'aliments, l'interaction vocale peut également répondre aux barrières de navigation que nous avons décrites plus tôt. Au lieu de balayer visuellement un tableau de bord, un utilisateur peut demander : "Combien de calories ai-je consommées aujourd'hui ?" ou "Quel était mon apport en protéines cette semaine ?" et recevoir une réponse vocale.

Ce type d'interaction conversationnelle avec les données nutritionnelles transforme toute la relation entre l'utilisateur et l'application. L'application devient moins une interface visuelle à naviguer et plus un assistant à consulter. Pour un utilisateur malvoyant, c'est la différence entre lutter avec l'outil et utiliser l'outil.

Compatibilité VoiceOver et TalkBack : la fondation

Les fonctionnalités d'IA et de voix sont importantes, mais elles reposent sur une exigence plus fondamentale : l'application elle-même doit être entièrement compatible avec les lecteurs d'écran de la plateforme dont les utilisateurs malvoyants dépendent chaque jour.

Sur iOS, ce lecteur d'écran est VoiceOver. Sur Android, c'est TalkBack. Ce ne sont pas des options facultatives agréables à avoir. Pour un utilisateur aveugle, ils sont le moyen principal d'interagir avec n'importe quelle application sur son téléphone.

Une compatibilité totale avec le lecteur d'écran signifie :

  • Chaque élément interactif a une étiquette d'accessibilité descriptive. Un bouton qui enregistre un repas est annoncé comme "bouton enregistrer le repas," et non "bouton" ou rien.
  • Chaque élément d'information transmet son contenu. Un total calorique se lit comme "1 450 sur 2 200 calories consommées aujourd'hui," et non "barre de progression, 66 pour cent" ou juste "image."
  • L'ordre de navigation est logique et prévisible. Balayer l'interface déplace les éléments dans un ordre qui a du sens sémantique, et non dans un ordre arbitraire déterminé par la mise en page visuelle.
  • Les commandes personnalisées sont accessibles. Si l'application utilise un curseur personnalisé pour ajuster la taille des portions, ce curseur fonctionne avec les gestes VoiceOver et annonce sa valeur actuelle et sa plage.
  • Les changements d'état sont annoncés. Lorsqu'un article alimentaire est enregistré avec succès, le lecteur d'écran annonce la confirmation. Lorsqu'une erreur se produit, le lecteur d'écran annonce l'erreur. L'utilisateur n'est jamais laissé dans le silence en se demandant ce qui s'est passé.

Nutrola a investi dans la compatibilité avec le lecteur d'écran comme une exigence d'ingénierie de base, et non comme un correctif post-lancement. Chaque nouvelle fonctionnalité est testée avec VoiceOver et TalkBack avant la sortie. Les étiquettes d'accessibilité font partie de la spécification de conception, et non réajoutées après la finalisation de la conception visuelle.

Cela ne signifie pas que l'expérience est parfaite. Elle ne l'est pas. Il y a des rugosités, et nous les aborderons honnêtement plus loin dans cet article. Mais la fondation est en place, et elle est maintenue avec chaque mise à jour.

Une journée dans la vie de Marcus avec Nutrola

Pour rendre cela concret, voici à quoi ressemble une journée typique pour Marcus --- l'administrateur de base de données malvoyant que nous avons présenté au début de cet article. Il utilise Nutrola depuis environ quatre mois.

Matin

Marcus se réveille et prépare le petit-déjeuner : deux œufs brouillés, une tranche de toast de blé complet avec du beurre et une tasse de café noir. Il ouvre Nutrola en utilisant le raccourci de l'application sur son écran d'accueil --- positionné dans le coin inférieur gauche où sa mémoire musculaire l'attend. VoiceOver annonce "Nutrola" lorsqu'il tape.

Il utilise la commande vocale : "Enregistrer le petit-déjeuner. Deux œufs brouillés, une tranche de toast de blé complet avec du beurre, café noir."

Nutrola traite l'entrée et lit en retour : "Petit-déjeuner enregistré. Deux œufs brouillés, 180 calories. Une tranche de toast de blé complet avec une cuillère à soupe de beurre, 165 calories. Café noir, 5 calories. Total petit-déjeuner : 350 calories."

Marcus confirme. L'interaction entière prend environ quinze secondes.

Fin de matinée

Au travail, Marcus prend une collation dans la salle de pause --- une banane et une poignée d'amandes. Il prend une photo rapide. Il n'a pas besoin de la cadrer parfaitement. Il tient son téléphone à peu près au-dessus de la nourriture, tape le bouton de capture (que VoiceOver annonce) et attend le ton de traitement.

"Identifié : une banane moyenne et environ une once d'amandes. Total estimé : 270 calories."

Marcus sait par expérience que l'IA a tendance à sous-estimer légèrement ses portions d'amandes parce qu'il a de grandes mains et saisit des poignées généreuses. Il dit à l'application : "Mettre les amandes à une once et demie." L'entrée se met à jour. Il confirme.

Déjeuner

La cafétéria du lieu de travail de Marcus présente un défi commun : des plats mélangés où les ingrédients individuels sont difficiles à séparer. Aujourd'hui, il a un sauté de poulet sur riz blanc de la ligne des aliments chauds. Il le photographie et laisse l'IA faire son travail.

"Identifié : sauté de poulet avec légumes mélangés sur riz blanc. Total estimé : 680 calories. Protéines : 35 grammes. Glucides : 72 grammes. Lipides : 24 grammes."

Marcus pense que la portion de riz est plus grande que ce que l'IA a estimé. Il ajuste : "Mettre le riz à une tasse et demie au lieu d'une tasse." Les totaux se mettent à jour et lui sont lus en retour.

Après-midi

Marcus demande à Nutrola un contrôle de statut. "Comment je me comporte aujourd'hui ?"

L'application répond : "Vous avez consommé 1 340 calories jusqu'à présent aujourd'hui. Votre cible quotidienne est de 2 100 calories. Il vous reste 760 calories. Vos protéines jusqu'à présent sont de 78 grammes sur votre cible de 140 grammes."

Cela prend trois secondes. Pas de balayage visuel. Pas de navigation de tableau de bord. Juste une question et une réponse.

Dîner

À la maison, Marcus prépare un filet de saumon avec des patates douces rôties et une salade d'accompagnement. Il photographie l'assiette. L'IA identifie chaque composant. Il confirme l'entrée.

Après le dîner, il demande son résumé quotidien. Nutrola lit en retour son apport total, ventilé par repas, ainsi que ses totaux de macronutriments et comment ils se comparent à ses cibles. Marcus a atteint 2 050 calories, 132 grammes de protéines et est légèrement au-dessus des glucides.

"Il y a quatre mois, je n'aurais pas pu vous dire à 500 calories près ce que je mangeais n'importe quel jour donné," a dit Marcus. "Maintenant, je sais dans une marge d'erreur raisonnable. Ce n'est pas une petite chose. Mon médecin a remarqué la différence dans mon dernier bilan sanguin. Mon A1C a diminué. C'est réel."

Ce que Marcus apprécie le plus

Lorsqu'on lui a demandé ce qui comptait le plus dans l'expérience, Marcus n'a pas mentionné une fonctionnalité spécifique. Il a mentionné la cohérence. "La chose à propos de l'accessibilité est qu'il ne s'agit pas seulement de savoir si quelque chose est techniquement possible. Il s'agit de savoir si c'est durable. Je pourrais lutter avec une application inaccessible pour un repas. Peut-être deux. Mais le faire trois à cinq fois par jour, chaque jour, pendant des mois ? C'est là que tout s'effondre. Nutrola est la première application où l'effort requis est suffisamment bas pour que je puisse vraiment continuer à le faire."

Conseils pratiques pour les utilisateurs malvoyants commençant le suivi des calories

Basé sur les retours de Marcus et d'autres utilisateurs malvoyants de notre communauté, voici des stratégies pratiques pour commencer.

1. Configurez l'enregistrement vocal dès le premier jour

Ne commencez pas avec la saisie manuelle et "planifiez de passer à la voix plus tard." Commencez avec la voix. Cela établit les bonnes attentes en matière d'effort et empêche la frustration précoce d'empoisonner votre perception du processus.

2. Apprenez la technique photo

Tenez votre téléphone à environ 12 à 18 pouces au-dessus de l'assiette, à peu près centré. Vous n'avez pas besoin de voir l'écran. Écoutez la confirmation de capture. Si l'IA identifie mal quelque chose, corrigez-le par voix. Après quelques jours, vous développerez une technique fiable qui fonctionne presque à chaque fois.

3. Utilisez des plats et des portions cohérents

C'est un bon conseil pour n'importe qui, mais c'est particulièrement utile pour les utilisateurs malvoyants. Si vous mangez le petit-déjeuner dans le même bol chaque jour, vous développez un sens physique de la plénitude du bol et de ce à quoi cela correspond caloriquement. Moins de variables signifient moins d'ajustements aux estimations de l'IA.

4. Construisez une routine autour de l'enregistrement

Enregistrez chaque repas immédiatement après avoir mangé, avant de passer à l'activité suivante. Cela réduit la chance d'oublier un repas et élimine le besoin de rappeler les portions et les ingrédients de la mémoire plus tard dans la journée.

5. Utilisez régulièrement le résumé vocal

Vérifiez vos totaux quotidiens par voix au moins deux fois par jour --- une fois vers midi et une fois après le dîner. Cela vous maintient connecté aux données sans nécessiter d'interaction avec l'interface visuelle.

6. Gardez votre lecteur d'écran à jour

VoiceOver et TalkBack reçoivent des mises à jour régulières qui améliorent les performances et la compatibilité. Garder le système d'exploitation de votre téléphone à jour garantit que vous obtenez la meilleure expérience de lecteur d'écran possible.

7. Fournissez des commentaires

Si vous rencontrez un problème d'accessibilité --- un bouton qui n'est pas étiqueté, un écran qui ne s'annonce pas correctement, une mauvaise identification de l'IA qui se produit de manière répétée --- signalez-le. L'accessibilité de Nutrola s'améliore basée sur les retours des utilisateurs réels, et les rapports des utilisateurs malvoyants sont priorisés dans notre file de développement.

Ce qui doit encore être amélioré

Nous ferions un mauvais service à nos utilisateurs malvoyants si nous présentions l'état actuel des choses comme un problème résolu. Ce n'est pas le cas. D'importantes lacunes subsistent, et nous voulons être transparents à leur sujet.

Précision de l'IA avec les plats complexes et mélangés

La reconnaissance alimentaire par IA est bonne, mais elle n'est pas parfaite. Elle gère les aliments clairement séparés --- un morceau de poulet grillé à côté d'un monticule de riz à côté de légumes vapeur --- beaucoup mieux qu'elle ne gère les plats mélangés, les casseroles, les ragoûts ou les aliments où les ingrédients sont superposés ou cachés. Un burrito est un défi particulier parce que l'IA ne peut pas voir ce qu'il y a à l'intérieur de la tortilla.

Pour les utilisateurs malvoyants qui ne peuvent pas inspecter visuellement les estimations de l'IA, cette limitation est plus conséquente. Un utilisateur voyant pourrait jeter un coup d'œil à l'estimation de l'IA et remarquer immédiatement qu'elle a manqué le fromage sur leur sandwich. Un utilisateur malvoyant pourrait ne pas attraper cette erreur à moins qu'il ne revoie activement chaque ingrédient en écoutant la répartition complète.

Nous travaillons à l'amélioration des invites de l'IA qui posent des questions de clarification --- "Ce plat contient-il du fromage ?" "Y a-t-il une sauce sur cela ?" --- pour combler les lacunes que la caméra ne peut pas voir.

Intégration et configuration initiale

Le processus de configuration initiale --- création d'un compte, saisie des métriques corporelles, définition des cibles caloriques et de macros --- est plus complexe que l'utilisation quotidienne et implique plus de champs de formulaire, de menus déroulants et de flux en plusieurs étapes. Bien que ceux-ci soient compatibles avec le lecteur d'écran, l'expérience n'est pas aussi fluide que nous le souhaiterions. Nous redessinons le flux d'intégration avec l'accessibilité comme contrainte de conception principale, et non secondaire.

Repas au restaurant et à emporter

Manger au restaurant présente des défis pour tous les utilisateurs, mais surtout pour les utilisateurs malvoyants. Les plats de restaurant sont souvent servis de manière à obscurcir les tailles des portions, les sauces peuvent être sous les aliments plutôt que sur le dessus, et l'éclairage ambiant dans les restaurants peut réduire la précision photo de l'IA. L'enregistrement vocal aide ici --- décrire ce que vous avez commandé est souvent plus précis que de le photographier dans un restaurant sombre --- mais le processus est encore moins précis que l'enregistrement des repas cuisinés à la maison.

Fonctionnalités communautaires et sociales

De nombreuses applications de suivi des calories incluent des fonctionnalités sociales : partage des repas, comparaison des progrès avec les amis, participation aux défis. Ces fonctionnalités sont souvent parmi les parties les moins accessibles de toute application, s'appuyant fortement sur les mises en page visuelles, les images et les composants d'interface personnalisés. Les fonctionnalités sociales de Nutrola sont encore en développement, et nous nous engageons à les construire accessibles dès le début plutôt que de les adapter plus tard.

Reconnaissance des aliments régionaux et culturels

Les modèles de reconnaissance alimentaire par IA sont formés sur des ensembles de données. Ces ensembles de données sont biaisés vers les cuisines occidentales. Cela signifie que l'IA est plus précise pour identifier un hamburger que pour identifier le riz jollof, le dosa ou l'injera. C'est un biais systémique dans les données d'entraînement de l'IA que toute l'industrie doit aborder. Nutrola élargit activement ses données d'entraînement pour inclure une plus large gamme de cuisines mondiales, mais ce travail est en cours et la disparité est réelle aujourd'hui.

Le tableau plus large : la nutrition comme un droit, pas un privilège

Il y a une tendance dans l'industrie technologique à présenter l'accessibilité comme une fonctionnalité --- quelque chose que vous ajoutez à un produit pour servir un public de niche. Cette présentation est erronée. L'accessibilité est une question de savoir si une personne peut ou ne peut pas gérer un aspect fondamental de sa santé.

La nutrition affecte tout : l'énergie, le risque de maladie chronique, la santé mentale, la performance physique, la longévité. Le suivi des calories et des nutriments est l'un des outils les plus fondés sur des preuves disponibles pour améliorer les habitudes alimentaires. Lorsque les outils de suivi sont inaccessibles, les personnes malvoyantes ne manquent pas seulement une commodité. Elles sont exclues d'une intervention de santé prouvée.

L'Americans with Disabilities Act, l'European Accessibility Act et une législation similaire dans le monde établissent que les services numériques devraient être accessibles aux personnes handicapées. Mais la conformité légale est le plancher, pas le plafond. L'objectif devrait être une expérience qui est non seulement techniquement utilisable mais vraiment bonne --- une qu'un utilisateur malvoyant recommanderait à un ami, et non une qu'il tolère parce qu'il n'y a pas de meilleure option.

Marcus l'a exprimé en termes qui nous sont restés : "Je ne veux pas une application qui fonctionne malgré mon handicap. Je veux une application qui fonctionne indépendamment de cela. Il y a une différence. La première ressemble à de la charité. La seconde ressemble à une bonne ingénierie."

Questions fréquemment posées

Une personne totalement aveugle peut-elle utiliser Nutrola pour le suivi des calories ?

Oui. Nutrola est conçu pour être entièrement fonctionnel avec VoiceOver sur iOS et TalkBack sur Android. Toutes les fonctionnalités de base --- enregistrement d'aliments par photo, enregistrement d'aliments par voix, affichage des résumés quotidiens, ajustement des entrées et définition des cibles nutritionnelles --- sont accessibles via le lecteur d'écran. Vous n'avez besoin d'aucune vision utilisable pour faire fonctionner l'application, bien que l'assistance voyante puisse être utile lors de la configuration initiale si vous êtes nouveau avec l'application.

Quelle est la précision de la reconnaissance photo par IA pour le suivi des calories ?

La reconnaissance photo par IA est un outil d'estimation fort, et non un instrument de précision. Pour les aliments clairement visibles et bien séparés, la précision est généralement dans les 10 à 15 pour cent du contenu calorique réel. Pour les plats mélangés, la précision diminue. Nous recommandons d'utiliser des corrections vocales après la capture de photo pour améliorer la précision --- par exemple, en spécifiant que vous avez ajouté du fromage ou de l'huile qui peut ne pas être visible dans la photo.

L'enregistrement vocal fonctionne-t-il avec les accents et les locuteurs non anglophones ?

La reconnaissance vocale de Nutrola utilise un traitement avancé de la parole en texte qui gère une large gamme d'accents et de modèles de parole. Si vous pouvez utiliser la dictée vocale sur votre téléphone pour les textos, vous devriez pouvoir utiliser l'enregistrement vocal dans Nutrola. L'IA qui interprète les descriptions d'aliments est conçue pour comprendre le langage conversationnel et informel, vous n'avez donc pas besoin d'utiliser des termes précis ou techniques.

Nutrola est-il gratuit pour les utilisateurs malvoyants ?

La tarification de Nutrola est la même pour tous les utilisateurs. Nous n'avons pas de niveau séparé pour les utilisateurs malvoyants parce que l'accessibilité est intégrée au produit de base, et non verrouillée derrière un plan premium. Le niveau gratuit inclut l'enregistrement vocal et l'enregistrement photo. Les fonctionnalités premium telles que le suivi avancé des macros, les rapports hebdomadaires et l'analyse des tendances sont disponibles via un abonnement.

Puis-je utiliser Nutrola avec un afficheur braille ?

Oui. Parce que Nutrola est entièrement compatible avec VoiceOver et TalkBack, il fonctionne avec les afficheurs braille connectés à votre téléphone. Tout le contenu textuel qui est annoncé par le lecteur d'écran est également sorti vers l'afficheur braille, y compris les descriptions d'aliments, les totaux caloriques et les répartitions de macronutriments.

Comment Nutrola gère-t-il la taille des portions si je ne peux pas estimer visuellement les quantités ?

C'est un défi honnête. L'IA de Nutrola estime les tailles des portions à partir de photos, ce qui aide, mais ce n'est pas toujours précis. Nous recommandons d'utiliser des outils de mesure simples --- une balance de cuisine, des tasses à mesurer --- lors de la préparation des aliments à la maison. Avec le temps, vous développerez un sens physique de ce que les portions standard ressentent et pèsent, ce qui améliore à la fois vos estimations et votre capacité à corriger l'IA lorsqu'elle a tort.

Que dois-je faire si je rencontre un problème d'accessibilité dans l'application ?

Signalez-le via la fonctionnalité de commentaires intégrée, qui est accessible via VoiceOver et TalkBack. Vous pouvez également envoyer un e-mail directement à notre équipe de support. Les rapports de bugs d'accessibilité sont signalés et priorisés dans notre processus de développement. Nous apprécions chaque rapport parce qu'il nous aide à trouver et à corriger les problèmes que nos tests internes pourraient avoir manqués.

Les rapports hebdomadaires et mensuels sont-ils accessibles ?

Oui. Tous les écrans de rapports sont conçus avec des étiquettes d'accessibilité appropriées et un ordre de lecture logique pour les lecteurs d'écran. Les résumés peuvent également être accessibles par voix --- demander "Donnez-moi mon résumé hebdomadaire" renverra un aperçu vocal de vos calories quotidiennes moyennes, des tendances des macronutriments et du taux de cohérence pour les sept derniers jours.

Avancer

L'écart entre ce que les applications de suivi des calories exigent des utilisateurs et ce que les utilisateurs malvoyants peuvent fournir confortablement a été large pendant longtemps. La reconnaissance photo par IA et la saisie vocale ont réduit cet écart de manière dramatique. Pas tout le chemin. Mais de manière dramatique.

Le travail qui reste n'est pas glamour. C'est une attention méticuleuse aux étiquettes d'accessibilité. C'est l'expansion des données d'entraînement de l'IA pour inclure plus de cuisines. C'est tester chaque nouvelle fonctionnalité avec un lecteur d'écran avant sa mise en vente. C'est écouter des utilisateurs comme Marcus lorsqu'ils nous disent ce qui fonctionne et ce qui ne fonctionne pas.

Marcus nous a récemment dit qu'il a maintenant enregistré ses repas de manière cohérente pendant quatre mois --- la plus longue série qu'il a jamais maintenue avec n'importe quelle application de santé. "Quatre mois n'a pas l'air de beaucoup," a-t-il dit. "Mais lorsque vous avez essayé de faire quelque chose pendant six ans et échoué à chaque fois, quatre mois ressemblent à une preuve que c'est enfin possible."

C'est possible. Et cela aurait dû être possible il y a longtemps. La technologie existait. Ce qui manquait était l'engagement à l'utiliser au service de chaque utilisateur, et pas seulement de ceux que l'industrie trouvait les plus faciles à concevoir.

Nous ne sommes pas terminés. Mais nous ne nous arrêterons pas non plus.

Prêt à transformer votre suivi nutritionnel ?

Rejoignez des milliers de personnes qui ont transformé leur parcours santé avec Nutrola !

Suivi des calories avec déficience visuelle : accès par IA et voix | Nutrola