App-Auswahl

Wir nehmen die 10 weltweit meistgenutzten KI-Kalorientracker auf Basis öffentlicher Download- und Bewertungsdaten auf. Apps müssen KI-basierte Foto-Erkennung in mindestens einer Gratis- oder Testversion bieten; reine Datenbank-Such-Apps sind ausgeschlossen. Die 10er-Liste wird jährlich überprüft.

Bildbibliothek (15.000 Fotos)

15.000 Essensfotos in 10 Küchenkategorien (je 1.500 Fotos): amerikanisch, mediterran, japanisch, chinesisch, indisch, mexikanisch/lateinamerikanisch, südostasiatisch, nahöstlich, afrikanisch, europäisch. Drei Schwierigkeitsstufen: einfach (Einzellebensmittel), gemischt (2–4 Komponenten) und komplex (5+ Komponenten oder dichte Gerichte). Fotos werden bei standardisierter Beleuchtung, aus konsistenten Winkeln und mit Referenzobjekt für den Maßstab aufgenommen.

Referenzgrundlage: im Labor gewogene Portionen

Jede fotografierte Mahlzeit wird auf kalibrierten Laborwaagen (Genauigkeit ±0,1 g) vor dem Fotografieren gewogen. Die Makro-Zusammensetzung wird aus USDA FoodData Central und verifizierten regionalen Datenbanken berechnet. So entsteht eine objektive Referenz, gegen die wir die KI-Schätzungen jeder App messen.

Testprotokoll

  • Triple Submission: jedes Foto wird dreimal an jede App geschickt, der Median dient als Endbewertung.
  • Blindtests: Entwickler werden nicht informiert und wissen nicht, welche Bilder gesendet werden.
  • Normale Verbraucher-Konten: kein früher Zugang, keine privaten API-Schlüssel.
  • Gleiche Bedingungen: gleiches Gerät, gleiches Netzwerk, gleiche Beleuchtung.

Wertungssystem

Fünf gewichtete Metriken ergeben die Endbewertung:

  • Erkennungsrate (30 %): Top-1-Genauigkeit über 15.000 Fotos.
  • Portions-MAPE (25 %): mittlere absolute prozentuale Abweichung bei der Gramm-Schätzung.
  • Verarbeitungsgeschwindigkeit (20 %): mediane Zeit vom Foto zum Ergebnis.
  • Küchenabdeckung (15 %): Konstanz über die 10 Kategorien.
  • Lernen und Anpassung (10 %): Verbesserung nach Nutzer-Feedback.

FAQ zur Methodik

Wissen die Entwickler, dass ihre Apps getestet werden?

Nein. Die Tests werden mit normalen Verbraucher-Konten ohne Vorabkontakt zu den Entwicklern durchgeführt. Sie werden vor, während oder nach den Tests nicht benachrichtigt. Das verhindert jegliche Manipulation oder gezielte Voroptimierung auf unsere Bedingungen.

Warum wird die Bildbibliothek nicht veröffentlicht?

Eine Veröffentlichung würde es Entwicklern erlauben, die Bilder in künftiges Training einzubauen und so spätere Zyklen zu entwerten. Die Bibliothek bleibt intern und wird jährlich ersetzt. Die Methodik zu ihrem Aufbau ist vollständig öffentlich, sodass andere einen vergleichbaren Benchmark reproduzieren können.

Wer finanziert diesen Benchmark?

Der Benchmark ist selbstfinanziert. Alle App-Käufe, Testgeräte und Laborkosten werden aus eigener Tasche bezahlt. Die Seite erzielt Einnahmen nur über Display-Werbung. Kein Entwickler, Affiliate-Programm oder gesponserte Platzierung trägt zu den Kosten bei oder beeinflusst die Ergebnisse.

Ergebnisse ansehen

Gesamtranking Alle Tests