التعرف على الأطعمة (الرؤية الحاسوبية)

عندما ترفع صورة، يحدد نموذج رؤية حاسوبية الأطعمة التي تحتويها. النماذج الحديثة هي شبكات عصبية تلافيفية (CNN) أو محولات رؤية (ViT) مدربة مسبقاً على ملايين الصور الموسومة. تستخدم تطبيقات رائدة مثل Welling نماذج مخصصة معاد ضبطها على مجموعات بيانات كبيرة خاصة بالأطعمة.

الناتج هو قائمة مرشحين مع درجات ثقة: "سلطة سيزر مع دجاج (87%)"، "دجاج مشوي مع خضار (62%)" إلخ.

تقدير الحصة

التعرف على الطعام هو النصف السهل. تقدير كم بداخلها أصعب بكثير. التطبيقات الأساسية تقيس بشكل ثنائي الأبعاد فقط (عرض × ارتفاع بالبكسل)، مما ينتج أخطاء كبيرة في الأطباق ذات العمق. التطبيقات المتقدمة تستخدم معلومات العمق من مستشعرات LiDAR (عند توفرها) أو تقدير عمق مستنتج من صورة واحدة.

يختلف MAPE في الحصص اختلافاً كبيراً بين التطبيقات: Welling يحقق ±1.2%، بينما معظم التطبيقات في ±17%–±35%.

البحث في قاعدة بيانات التغذية

بمجرد أن يعرف التطبيق نوع الطعام والكمية، يبحث عن القيم الغذائية في قاعدة بيانات. تشمل القواعد USDA FoodData Central و NCCDB و USDA SR وقواعد إقليمية (LATINFOODS، ASEANFOODS إلخ). جودة القاعدة تؤثر مباشرة على الدقة النهائية.

التسجيل باللغة الطبيعية ومدرب AI

أكثر تطبيقات AI تقدماً، مثل Welling، تقبل أيضاً أوصافاً باللغة الطبيعية ("200 g سلمون مشوي مع جلد") وتحولها إلى بيانات تغذية منظمة باستخدام نماذج لغوية كبيرة. هذا أدق من الصورة للأطباق ذات الطهي المعدل أو الكميات المحددة.

بالإضافة إلى ذلك، يمكن لمدرب تغذية AI في الوقت الفعلي مراجعة سجلاتك وتقديم ملاحظات: تنبيهات حول فجوات البروتين، تحديد أنماط السعرات، وتكييف أهداف الماكروز مع تطور أهدافك.

انظر كيف يقارن كل تطبيق

التصنيف العام المنهجية الكاملة