Computer VisionDeep LearningMachine LearningProject

Entwicklung eines selbstfahrenden Autos – Tag #3


Heute konnten wir die ersten Tests mit unserem überarbeiteten Framework und dem erweiterten Datenset starten. Leider dauerte das Preprocessing und das Annotieren der Bilder länger als erwartet (~1h manuelles Bearbeiten und ~3h automatisches Bearbeiten). Dennoch konnten wir heute das Trainieren starten und hatten als Ziel 120.000, was auf der GTX 1060 ungefähr 3-5h dauert. Da der Tag aber schon halb vorbei war als wir damit anfingen und wir noch Ergebnisse sehen wollten, haben wir das Training nach 18.000 Iterationen abgebrochen (Bei ~25.000 Iterationen hätte das Netz jedes Trainingssample einmal gesehen gehabt).
Dadurch, dass wir so früh abgebrochen haben, haben wir von den anschließenden Tests natürlich auch nicht all zu viel erwartet. Die echten Ergebnisse haben uns dann jedoch total überrascht. Wir haben zwar keine Genauigkeit gemessen wie etwa Recall oder Precision, aber haben 40 total zufällige, noch nicht annotierte, Bilder genommen und Selective Search + unser NN drüber laufen lassen. Die Ergebnisse sehen vielversprechend aus.

Wir teilen ein paar Bilder, damit man eventuell jetzt schon tendenzielle Schwierigkeiten sehen kann (Wir haben Personen und Nummernschilder zensiert, um nicht in irgendwelche Privatsphäre-Probleme zu laufen):

Diese Ergebnisse sehen doch echt schon ziemlich vielversprechend aus für die relativ kurze Trainingszeit. Morgen werden wir dann einmal die kompletten 120.000 Iterationen laufen lassen und noch einmal testen. Die aktuelle CNN-Struktur sieht so aus:

Das Bild wurde erstellt mit: //ethereon.github.io/netscope/quickstart.html

Das NN als Caffe-Proto habe ich auch einmal angehängt:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.