Für das Keras 3 Convolutional Layer + 4 FullyConnected Layer (mit DropOut und Batch Normalisierung verwendet).
num_classes=10
num_filters = 64
num_dense_neurons = 64
tf.keras.models.Sequential([
layers.Conv2D(filters=num_filters, kernel_size=5, input_shape=(28, 28, 1)),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Conv2D(filters=num_filters, kernel_size=5),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Conv2D(filters=num_filters, kernel_size=5),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Flatten(),
layers.Dense(num_dense_neurons),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Dropout(0.25),
layers.Dense(num_dense_neurons),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Dropout(0.25),
layers.Dense(num_dense_neurons),
layers.BatchNormalization(),
layers.Activation('relu'),
layers.Dropout(0.25),
layers.Dense(num_classes),
layers.BatchNormalization(),
layers.Activation('softmax')
])
Das wichtigste, worauf zu achten ist, ist das der input_shape
(input_dim
ist auch möglich) mit der Größe der
MNIST Bilder (28 * 28 px) übereinstimmt. Und das die Größe des Output Layers mit der Anzahl der Klassen (10) des MNIST Datensatzes
übereinstimmt.
Das Model habe ich einige Zeit mit dem in Keras enthaltenen MNIST Datensatz trainieren lassen.
train.py
ist das Trainingsscript zum fortsetzen / wiederholen des Trainings.
Nach einer gewissen Trainingszet Zeit ergab sich eine Accuracy 99,44 % auf dem Evaluation-Datensatz.
Das Model ist in der Datei model.h5
abgespeichert und kann über die Datei evaluate.py
überprüft werden.
Um die Aufgabe zu lösen auf ich 4 Rosnodes erstellt. 4 Subscriber und 1 Publisher.
Subscript sich auf das /camera/output/specific/compressed_img_msgs
Topic.
Dort emfängt er ein voreingestelltes Bild, das Bild ist immer das gleiche. Dieses wird mit cv_bridge
in einen 28 * 28 * 1 px Vektor von Pixelwerten umgewandelt.
Diesem Vektor wird eine Batch-Dimension hinzugefügt um den Anforderungen von Keras zu entsprechen.
Danach der Vektor durch model.predict()
eine Vorhersage gemacht, welche Zahl auf dem Bild zu sehen ist.
Diese Vorhersage wird /camera/input/specific/number
gepublisht.
Subscript sich auf das /camera/output/specific/check
Topic. Dort emfängt es ob die zuvor vom publish_specific_number
gepublishte Vorhersage korrekt war.
Subscript sich auf das /camera/output/random/compressed_img_msgs
Topic. Dort wird jedes mal ein zufälliges Bild
aus dem MNIST-Datensatz empfangen. Von diesem wird, wie vorher bei subscribe_specific_image, durch das zuvor trainierte
Keras Model, berechnet welche Zahl auf dem Bild zu sehen ist.
Subscript sich auf das /camera/output/random/number
Topic. Emfängt die wirkliche Zahl die auf dem zufälligen Bild zu sehen ist.
So kann man überprüfen ob das Keras Model die richtige Prediction gemacht hat.