diff --git a/03-vision/03-digit-cnn.py b/03-vision/03-digit-cnn.py index 1d74809..8d0e107 100644 --- a/03-vision/03-digit-cnn.py +++ b/03-vision/03-digit-cnn.py @@ -40,7 +40,7 @@ from tensorflow import keras # - keras.layers.Dense : couche de neurones # - keras.layers.Conv2D : couche de convolution 2D (filtre) # - keras.layers.MaxPool2D : couche d'agrégation des cartes (noyaux de convolution) type Pooling max -# - keras.layers.Dropout : couche de régularisation type Dropout +# - keras.layers.Dropout : couche de régularisation par abandon (Dropout) # - keras.backend.clear_session() : reset de la session # - model.compile : compilation du modèle # - model.fit : entrainement du modèle @@ -61,6 +61,7 @@ fig.suptitle("Vision par ordinateur - Reconnaissance de digit par réseaux de ne subfigs = fig.subfigures(1, 3) model_ax = subfigs[0].subplots(1, 1) apts_ax = subfigs[1].subplots(1, 1) +# conv_ax = subfigs[1].subplots(1, 1) img_ax = subfigs[2].subplots(10, 15) ############################################################################### @@ -102,19 +103,21 @@ model.add(keras.layers.Conv2D(256, kernel_size=3, padding="same", activation="re model.add(keras.layers.MaxPool2D(2)) # Couche d'agrégation des cartes type Pooling max model.add(keras.layers.Flatten()) # Couche de mise à plat des données model.add(keras.layers.Dense(128, activation="relu")) # Couche dense : 128 nodes -model.add(keras.layers.Dropout(0.5)) # Couche de régularisation type dropout +model.add(keras.layers.Dropout(0.5)) # Couche de régularisation par abandon model.add(keras.layers.Dense(64, activation="relu")) # Couche dense : 64 nodes -model.add(keras.layers.Dropout(0.5)) # Couche de régularisation type dropout +model.add(keras.layers.Dropout(0.5)) # Couche de régularisation par abandon model.add(keras.layers.Dense(10, activation="softmax")) # Couche de sortie : 1 node par classe soit 10 # Version 1 -# model.add(keras.layers.Conv2D(32, kernel_size=3, padding="same", activation="relu")) # Couche de convolution avec 32 cartes -# model.add(keras.layers.Conv2D(64, kernel_size=3, padding="same", activation="relu")) # Couche de convolution avec 64 cartes +# conv1 = keras.layers.Conv2D(32, kernel_size=3, padding="same", activation="relu") # Couche de convolution avec 32 cartes +# conv2 = keras.layers.Conv2D(64, kernel_size=3, padding="same", activation="relu") # Couche de convolution avec 64 cartes +# model.add(conv1) +# model.add(conv2) # model.add(keras.layers.MaxPool2D()) # Couche d'agrégation des cartes type Pooling max # model.add(keras.layers.Flatten()) # Couche de mise à plat des données -# model.add(keras.layers.Dropout(0.25)) # Couche de régularisation type dropout +# model.add(keras.layers.Dropout(0.25)) # Couche de régularisation par abandon # model.add(keras.layers.Dense(128, activation="relu")) # Couche dense : 128 nodes -# model.add(keras.layers.Dropout(0.5)) # Couche de régularisation type dropout +# model.add(keras.layers.Dropout(0.5)) # Couche de régularisation par abandon # model.add(keras.layers.Dense(10, activation="softmax")) # Couche de sortie : 1 node par classe soit 10 optimiseur=keras.optimizers.SGD(learning_rate= eta) @@ -122,6 +125,9 @@ model.compile(loss=perte, optimizer=optimiseur, metrics=["accuracy"]) # Compilat apts = model.fit(X_train, y_train, epochs=n, batch_size=lot, validation_data=(X_valid, y_valid)) # Entrainement +# conv1_outputs = conv1(X_test) +# conv2_outputs = conv1(X_test) + ############################################################################### # Phase d'inférence ###############################################################################