Correction de coquille
@ -35,7 +35,7 @@ fig.suptitle("Descente de gradient")
|
||||
donnees_ax = fig.add_subplot(141) # Observations : x1 et cibles : y
|
||||
model_ax = fig.add_subplot(142) # Modèle : theta0, theta1
|
||||
couts_ax = fig.add_subplot(143) # Coûts : RMSE, MSE, ...
|
||||
app_ax = fig.add_subplot(144) # Taux d'appentissage : eta
|
||||
app_ax = fig.add_subplot(144) # Taux d'apprentissage : eta
|
||||
|
||||
i_list=[] # Itération
|
||||
couts_2d=[]
|
||||
@ -144,9 +144,9 @@ couts_ax.set_xlabel(r'$i$')
|
||||
couts_ax.set_ylabel("Coûts")
|
||||
couts_ax.legend()
|
||||
|
||||
# Plot du taux d'appentissage
|
||||
app_ax.set_title("Taux d'appentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'appentissage", markevery=10)
|
||||
# Plot du taux d'apprentissage
|
||||
app_ax.set_title("Taux d'apprentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'apprentissage", markevery=10)
|
||||
app_ax.set_xlabel(r'$i$')
|
||||
app_ax.set_ylabel(r'$\eta$', rotation=0)
|
||||
# app_ax.legend()
|
||||
|
@ -43,7 +43,7 @@ fig.suptitle("Descente de gradient stochastique")
|
||||
donnees_ax = fig.add_subplot(141) # Observations : x1 et cibles : y
|
||||
model_ax = fig.add_subplot(142) # Modèle : theta0, theta1
|
||||
couts_ax = fig.add_subplot(143) # Coûts : RMSE, MSE, ...
|
||||
app_ax = fig.add_subplot(144) # Taux d'appentissage : eta
|
||||
app_ax = fig.add_subplot(144) # Taux d'apprentissage : eta
|
||||
|
||||
i_list=[] # Itération
|
||||
couts_2d=[]
|
||||
@ -90,7 +90,7 @@ def ech_app (t):
|
||||
def mse(theta):
|
||||
return np.sum((np.dot(X, theta) - y)**2)/m
|
||||
def rmse(theta):
|
||||
return np..sqrt(np.sum((np.dot(X, theta) - y)**2)/m)
|
||||
return np.sqrt(np.sum((np.dot(X, theta) - y)**2)/m)
|
||||
|
||||
# Initialisation aléatoire
|
||||
theta= np.random.randn(2,1)
|
||||
@ -173,9 +173,9 @@ couts_ax.set_xlabel(r'$i$')
|
||||
couts_ax.set_ylabel("Coûts")
|
||||
couts_ax.legend()
|
||||
|
||||
# Plot du taux d'appentissage
|
||||
app_ax.set_title("Taux d'appentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'appentissage", markevery=10)
|
||||
# Plot du taux d'apprentissage
|
||||
app_ax.set_title("Taux d'apprentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'apprentissage", markevery=10)
|
||||
app_ax.set_xlabel(r'$i$')
|
||||
app_ax.set_ylabel(r'$\eta$', rotation=0)
|
||||
# app_ax.legend()
|
||||
|
@ -35,7 +35,7 @@ fig.suptitle("Descente de gradient par mini-lots")
|
||||
donnees_ax = fig.add_subplot(141) # Observations : x1 et cibles : y
|
||||
model_ax = fig.add_subplot(142) # Modèle : theta0, theta1
|
||||
couts_ax = fig.add_subplot(143) # Coûts : RMSE, MSE, ...
|
||||
app_ax = fig.add_subplot(144) # Taux d'appentissage : eta
|
||||
app_ax = fig.add_subplot(144) # Taux d'apprentissage : eta
|
||||
|
||||
i_list=[] # Itération
|
||||
couts_2d=[]
|
||||
@ -182,9 +182,9 @@ couts_ax.set_xlabel(r'$i$')
|
||||
couts_ax.set_ylabel("Coûts")
|
||||
couts_ax.legend()
|
||||
|
||||
# Plot du taux d'appentissage
|
||||
app_ax.set_title("Taux d'appentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'appentissage", markevery=10)
|
||||
# Plot du taux d'apprentissage
|
||||
app_ax.set_title("Taux d'apprentissage")
|
||||
app_ax.plot(i_list, eta_list, '.', ls=':', color='b', fillstyle='none', label="Taux d'apprentissage", markevery=10)
|
||||
app_ax.set_xlabel(r'$i$')
|
||||
app_ax.set_ylabel(r'$\eta$', rotation=0)
|
||||
# app_ax.legend()
|
||||
|
@ -22,7 +22,7 @@ import matplotlib.pyplot as plt
|
||||
# Commandes NumPy :
|
||||
# - np.array : créer un tableau à partir d'une liste de listes
|
||||
# - np.linspace : créer un tableau 1D de la valeur de début à la valeur de fin avec n valeurs
|
||||
# - .reshape : reformater la tableau avec le nombre de lignes et le nombre de colonnes
|
||||
# - .reshape : réagencer le tableau avec le nombre de lignes et le nombre de colonnes
|
||||
###
|
||||
|
||||
###
|
||||
@ -44,7 +44,7 @@ t_debut = time.time()
|
||||
fig = plt.figure(figsize=(15, 5))
|
||||
fig.suptitle("Régression polynomiale")
|
||||
donnees_ax = fig.add_subplot(121) # Observations : x1 et cibles : y
|
||||
app_ax = fig.add_subplot(122) # Courbe d'apprentissage
|
||||
app_ax = fig.add_subplot(122) # Courbes d'apprentissage
|
||||
|
||||
###############################################################################
|
||||
# Observations
|
||||
@ -145,7 +145,7 @@ donnees_ax.legend()
|
||||
donnees_ax.set(xlim=(-3, 3), ylim=(0, 10))
|
||||
|
||||
# Plot des courbes d'apprentissage
|
||||
app_ax.set_title("Courbes d'appentissage")
|
||||
app_ax.set_title("Courbes d'apprentissage")
|
||||
|
||||
app_ax.plot(np.sqrt(train_errors_1), 'g:', label="Entrainement - degré 1")
|
||||
app_ax.plot(np.sqrt(val_errors_1), 'g-', label="Validation - degré 1")
|
||||
|
Before Width: | Height: | Size: 452 KiB After Width: | Height: | Size: 470 KiB |
Before Width: | Height: | Size: 441 KiB After Width: | Height: | Size: 427 KiB |
Before Width: | Height: | Size: 440 KiB After Width: | Height: | Size: 439 KiB |
Before Width: | Height: | Size: 462 KiB After Width: | Height: | Size: 447 KiB |