diff --git a/02-intro_rna/02-keras-classificateur_img.py b/02-intro_rna/02-keras-classificateur_img.py index ab152ef..dcebd54 100644 --- a/02-intro_rna/02-keras-classificateur_img.py +++ b/02-intro_rna/02-keras-classificateur_img.py @@ -62,14 +62,15 @@ fig = plt.figure(layout="constrained", figsize=(15, 5)) subfigs = fig.subfigures(1, 3) model_ax = subfigs[0].subplots(1, 1) apts_ax = subfigs[1].subplots(1, 1) +# apts_ax = subfigs[1].subplots(2, 1) img_ax = subfigs[2].subplots(4, 8) -fig.suptitle("Réseaux de neurones avec Keras - Classificateur") +fig.suptitle("Réseaux de neurones avec Keras - Classificateur d'images") ############################################################################### # Observations ############################################################################### -# Observations d'apprentissage, de validation et nouvelles +# Observations d'apprentissage, de validation et de test vetement = keras.datasets.fashion_mnist # Jeu de données Fashion MNIST (X, y), (X_test, y_test) = vetement.load_data() X_train, y_train = X[5000:]/255.0 , y[5000:] @@ -80,8 +81,11 @@ classes = ["Tshirt", "Pantalon", "Pull", "Robe", "Manteau", "Sandale", "Chemise" # Phase d'apprentissage ############################################################################### -# eta = 0.01 # Taux d'appentissage (valeur par défaut : 0.1, hyperparamètre) n = 30 # Nombre d'itérations (valeur par défaut : 30 , hyperparamètre) +eta = 0.01 # Taux d'appentissage (valeur par défaut dans Keras : 0.01, hyperparamètre) +lot=32 # Taille de lot (valeur par défaut dans Keras: 32 , hyperparamètre) +perte="sparse_categorical_crossentropy" # Type de perte (hyperparamètre) +#loss="mse" # Type de perte (hyperparamètre) keras.backend.clear_session() # np.random.seed(42) @@ -90,12 +94,16 @@ keras.backend.clear_session() model = keras.models.Sequential() # Modèle de reseau de neurones model.add(keras.layers.Flatten(input_shape=[28, 28])) # Couche d'entrée : mise à plat des données d'entrée -> 1 node / pixel soit 784 (28x28) model.add(keras.layers.Dense(300, activation="relu")) # Couche 1 : 300 nodes -model.add(keras.layers.Dense(100, activation="relu")) # Couche 2 : 100 nodes +# model.add(keras.layers.Dense(300, activation="relu")) # Couche 2 : 300 nodes -> passage de 100 à 300 +# model.add(keras.layers.Dense(300, activation="relu")) # Couche 3 : 300 nodes -> ajout +model.add(keras.layers.Dense(100, activation="relu")) # Couche 4 : 100 nodes -> ajout model.add(keras.layers.Dense(10, activation="softmax")) # Couche de sortie : 1 node par classe soit 10 -model.compile(loss="sparse_categorical_crossentropy", optimizer="sgd", metrics=["accuracy"]) # Compilation du modèle +# model.compile(loss="sparse_categorical_crossentropy", optimizer="sgd", metrics=["accuracy"]) +optimiseur=keras.optimizers.SGD(learning_rate= eta) +model.compile(loss=perte, optimizer=optimiseur, metrics=["accuracy"]) # Compilation du modèle -apts = model.fit(X_train, y_train, epochs=n, validation_data=(X_valid, y_valid)) # Entrainement / Apprentissage +apts = model.fit(X_train, y_train, epochs=n, batch_size=lot, validation_data=(X_valid, y_valid)) # Entrainement / Apprentissage ############################################################################### # Phase d'inférence @@ -127,15 +135,30 @@ model_ax.imshow(model_img) model_ax.set_axis_off() # Courbes d'apprentissage + +def derivation(courbe): + df = [] + for i in range (len(courbe)-1): + df.append(courbe[i+1]-courbe[i]) + return df + apts_ax.set_title("Courbes d'apprentissage") apts_ax.plot(apts.epoch, apts.history['loss'], 'b-', label="Perte - entrainement") apts_ax.plot(apts.epoch, apts.history['val_loss'], 'r-', label="Perte - validation") apts_ax.plot(apts.epoch, apts.history['accuracy'], 'b:', label="Précision - entrainement") apts_ax.plot(apts.epoch, apts.history['val_accuracy'], 'r:', label="Précision - validation") -apts_ax.set_xlabel("Époque") apts_ax.set(ylim=(0, 1)) +apts_ax.set_xlabel("Époque") apts_ax.legend() +# apts_ax[1].plot(apts.epoch[:-1], derivation(apts.history['loss']), 'b-', label="Perte - entrainement") +# apts_ax[1].plot(apts.epoch[:-1], derivation(apts.history['val_loss']), 'r-', label="Perte - validation") +# apts_ax[1].plot(apts.epoch[:-1], derivation(apts.history['accuracy']), 'b:', label="Précision - entrainement") +# apts_ax[1].plot(apts.epoch[:-1], derivation(apts.history['val_accuracy']), 'r:', label="Précision - validation") +# apts_ax[1].legend() +# apts_ax[1].set(xlim=(0, len(apts.epoch)+1)) +# apts_ax[1].set_xlabel("Époque") + # Prédictions for i in range (8): for j in range (4): diff --git a/02-intro_rna/img/02-keras-classificateur_img.png b/02-intro_rna/img/02-keras-classificateur_img.png index 19593f0..47e9b80 100644 Binary files a/02-intro_rna/img/02-keras-classificateur_img.png and b/02-intro_rna/img/02-keras-classificateur_img.png differ