auto detect tags and move pictures after resizing

This commit is contained in:
Tykayn 2024-11-15 15:58:19 +01:00 committed by tykayn
parent 9c72473913
commit 618c029c62
8 changed files with 165 additions and 154 deletions

3
.gitignore vendored
View File

@ -1,5 +1,6 @@
**/converted/ **/converted/
sources/*/converted sources/*/converted
sources/**/converted
sources/*/lang_*/converted sources/*/lang_*/converted
sources/**/*.html sources/**/*.html
index_*.html index_*.html
@ -8,3 +9,5 @@ __pycache__
output/pictures output/pictures
output/*.org output/*.org
html-websites/* html-websites/*
pictures_done
pictures_inbox/*

View File

@ -5,12 +5,16 @@ Génération de capsules gemini et blog html à partir d'articles en fichiers Or
exemple avec le blog de DragonFeu. exemple avec le blog de DragonFeu.
`sources/dragonfeu_blog` `sources/dragonfeu_blog`
Les articles sont écrits dans le dossier source/, leur nom permet de déduire l'ordre de publication grâce à une date YYY-MM-DD en début de nom de fichier Les articles sont écrits dans le dossier source/, leur nom permet de déduire l'ordre de publication grâce à une date YYY-MM-DD en début de nom de fichier.
## création d'un article ## création d'un article
Pour un article en langue En, sur le blog cipherbliss_blog, donner le titre entre guillemets ainsi: Pour un article en langue En (english), sur le blog cipherbliss_blog, donner le titre entre guillemets ainsi:
```shell ```shell
python3 new_article.py cipherbliss_blog en "Creation of a gemini blog" python3 new_article.py cipherbliss_blog en "Creation of a gemini blog"
``` ```
On peut se faire un alias de commande en bash pour n'avoir à remplir que le titre pour un blog donné.
## prérequis pour installation ## prérequis pour installation
Avoir des articles au format org, les mettre dans un dossier source/nom_du_blog, et avoir quelques bibliothèques dispo: Avoir des articles au format org, les mettre dans un dossier source/nom_du_blog, et avoir quelques bibliothèques dispo:

View File

@ -1,9 +1,9 @@
import argparse import argparse
import datetime import datetime
import os import os
import re
import shutil import shutil
from utils import *
from enrich_html import enrich_one_file from enrich_html import enrich_one_file
from website_config import configs_sites, global_config from website_config import configs_sites, global_config
@ -22,120 +22,11 @@ source_files_extension = "org"
config_title = configs_sites[args.source]['BLOG_TITLE'] config_title = configs_sites[args.source]['BLOG_TITLE']
# Expression régulière pour extraire la date et le slug du nom de fichier org
regex = r"^(\d{14})(-[a-zA-Z0-9_-]+)\.gmi$"
regex_orgroam = r"^(\d{14})_([a-zA-Z0-9_-]+)\.gmi$"
use_article_file_for_name = (not global_config["slug_with_year"]) use_article_file_for_name = (not global_config["slug_with_year"])
website_name = args.source website_name = args.source
def trouver_nom_article(fichier_org, format="html"):
# print('fichier_org, ', fichier_org)
with open(fichier_org, 'r') as file:
lignes = file.readlines()
nom_article = ''
# print('trouver_nom_article format',format)
# Expressions régulières pour trouver les titres de niveau 1 et 2
if format == 'html':
titre_niveau_1 = r'<h1\s+(?:id|data-created)="[^"]*">(.*?)</h1>'
titre_niveau_2 = r'^\<h2.*?\>(.+)\<\/h2\>$'
else:
titre_niveau_1 = r'^\*+ (.+)$'
titre_niveau_2 = r'^\*\*+ (.+)$'
# Itérer sur les lignes du fichier
for ligne in lignes:
# Rechercher un titre de niveau 1
titre_niveau_1_match = re.match(titre_niveau_1, ligne)
if titre_niveau_1_match:
titre_niveau_1_texte = titre_niveau_1_match.group(1)
if titre_niveau_1_texte.lower() != "article" and titre_niveau_1_texte.lower() != "liens":
nom_article = titre_niveau_1_texte
break
else:
# Si le premier titre de niveau 1 est "Article", rechercher le premier titre de niveau 2
titre_niveau_2_match = re.match(titre_niveau_2, ligne)
if titre_niveau_2_match:
nom_article = titre_niveau_2_match.group(1)
break
# print(f"Nom de l'article : {nom_article}")
return nom_article.replace(args.source + '_', '').replace('_', ' ')
def find_year_and_slug(fichier):
fichier = fichier.replace('..', '.')
# print(f" ------------ build_indexes: find in {fichier} -------------")
slug = fichier.replace('.gmi', '')
annee = '2024'
date_str = '2024-00-00'
date = '2024-00-00'
match = re.match(regex_orgroam, fichier)
if match:
date_str = match.group(1)
annee = date_str[:4]
slug = match.group(2)
match = re.match(regex, fichier)
if match:
date_str = match.group(1)
# Convertir la date en objet datetime
if "-" in date_str:
date = datetime.datetime.strptime(date_str, "%Y-%m-%d")
else:
date = datetime.datetime.strptime(date_str, "%Y%m%d%H%M%S")
date_string_replaced = str(date).replace(' 00:00:00', '')
slug = fichier.replace('.gmi', '')
slug = slug.replace(date_string_replaced, '')
slug = enlever_premier_tiret_ou_underscore(slug)
annee = str(date.year).replace(' 00:00:00', '')
# else:
# print('ERREUR aucun slug trouvé')
# print(f" ------------ build_indexes: ")
# print(f" ------------ build_indexes: Fichier: {fichier}")
# print(f" ------------ build_indexes: année: {annee}")
# print(f" ------------ build_indexes: str(date): {str(date)}")
# print(f" ------------ build_indexes: slug: {slug}")
# print(f" ------------ build_indexes: chemin: {annee}/{slug}/")
return [date_str, annee, slug]
def enlever_premier_tiret_ou_underscore(chaîne):
if chaîne.startswith('-') or chaîne.startswith('_'):
chaîne = chaîne[1:]
return chaîne
# création des dossiers intermédiaires s'il y en a
# déplace le fichier dans le dossier spécifié
def create_path_folders_and_move_file(path, file):
os.makedirs(os.path.dirname(path), exist_ok=True)
shutil.move(file, path)
def get_files_list_of_folder(folder_path):
# Vérifie si le dossier existe
if not os.path.exists(folder_path):
print(f" ------------ build_indexes: Erreur : Le dossier '{folder_path}' n'existe pas.")
return
# print('----------- get_files_list_of_folder: folder_path : ', folder_path)
# Liste les fichiers articles, trie par nom décroissant
try:
fichiers_md = sorted([f.replace('.' + source_files_extension, '.gmi') for f in os.listdir(folder_path) if
f.endswith(source_files_extension)], reverse=True)
print('fichiers trouvés:', len(fichiers_md))
return fichiers_md
except OSError as e:
print(f" ------------ build_indexes: Erreur lors de la lecture du dossier : {e}")
return
# transformer le nom du fichier orgmode en une création de dossier de l'année, et un sous dossier du nom du slug dans le nom de fichier, contenant un seul fichier d'index afin de faire de l'url rewrite en dur. # transformer le nom du fichier orgmode en une création de dossier de l'année, et un sous dossier du nom du slug dans le nom de fichier, contenant un seul fichier d'index afin de faire de l'url rewrite en dur.
# le nom de fichier org commence par une date YYYY-MM-DD ou bien YYYYMMDDHHmmss, est suivie d'un slug, et finit par l'extension .org # le nom de fichier org commence par une date YYYY-MM-DD ou bien YYYYMMDDHHmmss, est suivie d'un slug, et finit par l'extension .org
@ -179,7 +70,7 @@ def generer_index(dossier_source, fichier_index):
link_org = fichier.replace('.gmi', '.org') link_org = fichier.replace('.gmi', '.org')
file_path_org = os.path.join(dossier_parent, "sources", website_name, lang_folder, link_org) file_path_org = os.path.join(dossier_parent, "sources", website_name, lang_folder, link_org)
article_name = trouver_nom_article(file_path_org, 'org') article_name = trouver_nom_article(file_path_org,args.source, 'org')
if not article_name: if not article_name:
article_name = slug.replace('-', ' ') article_name = slug.replace('-', ' ')
@ -200,11 +91,11 @@ def generer_index(dossier_source, fichier_index):
contenu_index_html += "<hr/>" contenu_index_html += "<hr/>"
contenu_index_html += "<h1>Navigation</h1>" contenu_index_html += "<h1>Navigation</h1>"
for fichier in files_static: for fichier in files_static:
# print(" -------- fichier ", fichier) mylog(" -------- fichier ", fichier)
link_html = fichier.replace('.gmi', '.html') link_html = fichier.replace('.gmi', '.html')
link_org = fichier.replace('.gmi', '.org') link_org = fichier.replace('.gmi', '.org')
file_path_org = os.path.join(dossier_parent, "sources", website_name, link_org) file_path_org = os.path.join(dossier_parent, "sources", website_name, link_org)
article_name = trouver_nom_article(file_path_org, 'org') article_name = trouver_nom_article(file_path_org,args.source, 'org')
if article_name: if article_name:
contenu_index_gmi += f"=> {fichier} {article_name}\n" contenu_index_gmi += f"=> {fichier} {article_name}\n"
@ -212,11 +103,11 @@ def generer_index(dossier_source, fichier_index):
contenu_index_gmi += f"=> {fichier}\n" contenu_index_gmi += f"=> {fichier}\n"
if fichier != "index.gmi": if fichier != "index.gmi":
# print(' -------- rechercher le nom de l article dans le fichier ') mylog(' -------- rechercher le nom de l article dans le fichier ')
if use_article_file_for_name: if use_article_file_for_name:
article_name = link_html article_name = link_html
else: else:
article_name = trouver_nom_article(file_path_org, 'org') article_name = trouver_nom_article(file_path_org,args.source, 'org')
if not article_name: if not article_name:
article_name = link_html article_name = link_html

View File

@ -146,7 +146,7 @@ convert_markdown_to_gmi() {
# pages en # pages en
for fichier in sources/$website_name/converted/*.md ; do for fichier in sources/$website_name/converted/*.md ; do
if [ -f "$fichier" ]; then if [ -f "$fichier" ]; then
# echo "----------- convert_markdown_to_gmi : md2gemini : $destination_gemini : $fichier" echo "----------- convert_markdown_to_gmi : md2gemini : $destination_gemini : $fichier"
md2gemini "$fichier" -w -d $destination_gemini/ md2gemini "$fichier" -w -d $destination_gemini/
fi fi
done done
@ -154,7 +154,7 @@ convert_markdown_to_gmi() {
for fichier in sources/$website_name/lang_fr/converted/*.md ; do for fichier in sources/$website_name/lang_fr/converted/*.md ; do
if [ -f "$fichier" ]; then if [ -f "$fichier" ]; then
# echo "----------- convert_markdown_to_gmi : md2gemini : $fichier" echo "----------- convert_markdown_to_gmi : md2gemini : $fichier"
md2gemini "$fichier" -w -d sources/$website_name/lang_fr/converted/ md2gemini "$fichier" -w -d sources/$website_name/lang_fr/converted/
fi fi
done done
@ -162,7 +162,7 @@ convert_markdown_to_gmi() {
for fichier in sources/$website_name/lang_en/converted/*.md ; do for fichier in sources/$website_name/lang_en/converted/*.md ; do
if [ -f "$fichier" ]; then if [ -f "$fichier" ]; then
# echo "----------- convert_markdown_to_gmi : md2gemini : $fichier" echo "----------- convert_markdown_to_gmi : md2gemini : $fichier"
md2gemini "$fichier" -w -d sources/$website_name/lang_fr/converted/ md2gemini "$fichier" -w -d sources/$website_name/lang_fr/converted/
fi fi
done done
@ -197,6 +197,9 @@ for website_name in "${blogs_folders[@]}"; do
# sauver le tout dans un fichier index.gmi # sauver le tout dans un fichier index.gmi
python3 build_indexes.py $website_name python3 build_indexes.py $website_name
# créer les pages de tags
python3 gather_tags_in_json.py $website_name
# déplacer les fichiers générés en html dans le dossier statique # déplacer les fichiers générés en html dans le dossier statique
mv sources/$website_name/converted/*.html html-websites/$website_name/ mv sources/$website_name/converted/*.html html-websites/$website_name/
@ -205,4 +208,7 @@ for website_name in "${blogs_folders[@]}"; do
# copier le style dans le dossier html # copier le style dans le dossier html
cp $style_file html-websites/$website_name/style.css cp $style_file html-websites/$website_name/style.css
# traiter les réductions d'images dans l'inbox
python3 pictures_resize.py
done done

2
deploy.sh Normal file
View File

@ -0,0 +1,2 @@
# copier les images vers le serveur qui héberge les blogs
rsync -avzp output/pictures/* tykayn@proxmox.coussinet.org:/poule/encrypted/www/tykayn-inbox/blogs-output-pictures

View File

@ -22,7 +22,7 @@ static_page_path = f"{source_blog}/templates/html/static.html"
enable_header=True enable_header=True
# print('---------- blog name ', blog_name) mylog('---------- blog name ', blog_name)
template_content = configs_sites[blog_name] template_content = configs_sites[blog_name]
after_article = '' after_article = ''
@ -51,7 +51,7 @@ def enrich_one_file(html_content: str, partials: dict = {"header_page": "", "foo
if inline_the_css is True: if inline_the_css is True:
print(' ----------- enrich_html: include css inline in each html page') mylog(' ----------- enrich_html: include css inline in each html page')
with open(os.path.join(root_path, file), "r") as f: with open(os.path.join(root_path, file), "r") as f:
css_content = f.read() css_content = f.read()
css_content = "<style type='text/css'>{css_content}</style>" css_content = "<style type='text/css'>{css_content}</style>"
@ -144,6 +144,7 @@ def enrich_one_file(html_content: str, partials: dict = {"header_page": "", "foo
</div> </div>
<nav class="footer-nav"> <nav class="footer-nav">
{template_content['NAVIGATION']} {template_content['NAVIGATION']}
<a href="/tags/">Tags</a>
</nav> </nav>
</div> </div>
</div> </div>
@ -169,8 +170,9 @@ def ouvrir_fichier(chemin_fichier):
raise FileNotFoundError(f"Le fichier {chemin_fichier} n'existe pas.") raise FileNotFoundError(f"Le fichier {chemin_fichier} n'existe pas.")
liste_fichiers_du_blog_convertis = os.walk(html_pages) liste_fichiers_du_blog_convertis = os.walk(html_pages)
print('fichiers à enrichir:', liste_fichiers_du_blog_convertis) mylog('fichiers à enrichir:', liste_fichiers_du_blog_convertis)
count_articles=0
# Parcourir tous les fichiers HTML dans le dossier du blog donné # Parcourir tous les fichiers HTML dans le dossier du blog donné
for root_path, dirs, files in liste_fichiers_du_blog_convertis : for root_path, dirs, files in liste_fichiers_du_blog_convertis :
@ -185,14 +187,14 @@ for root_path, dirs, files in liste_fichiers_du_blog_convertis :
partials["footer_content"] = ouvrir_fichier(os.path.join('sources',blog_name, 'templates', 'footer_page.org')) partials["footer_content"] = ouvrir_fichier(os.path.join('sources',blog_name, 'templates', 'footer_page.org'))
for file in files: for file in files:
print(file) # mylog(file)
if file is "index.html": # if file == "index.html":
template_content['no_header'] # template_content['no_header']=True
if file.endswith(".html"): if file.endswith(".html"):
print(' ----------- enrich_html: file:', os.path.join(root_path, file)) # mylog(' ----------- enrich_html: file:'+ os.path.join(root_path, file))
count_articles+=1
print(' ----------- enrich_html: CSS inline: ', inline_the_css) mylog(' ----------- enrich_html: CSS inline: ', inline_the_css)
# Ouvrir le fichier HTML en mode lecture # Ouvrir le fichier HTML en mode lecture
with open(os.path.join(root_path, file), "r") as f: with open(os.path.join(root_path, file), "r") as f:
@ -200,8 +202,10 @@ for root_path, dirs, files in liste_fichiers_du_blog_convertis :
html_content = enrich_one_file(html_content, partials) html_content = enrich_one_file(html_content, partials)
html_path_enriched = os.path.join(root_path, file) html_path_enriched = os.path.join(root_path, file)
print(' ----------- enrich_html: html_path_enriched ============> ', html_path_enriched) mylog(' ----------- enrich_html: html_path_enriched ============> ', html_path_enriched)
# Écrire le contenu modifié dans le fichier HTML # Écrire le contenu modifié dans le fichier HTML
with open(html_path_enriched, "w") as f: with open(html_path_enriched, "w") as f:
f.write(html_content) f.write(html_content)
print('\n ----------- enrich_html: html écrit ', html_path_enriched) mylog('\n ----------- enrich_html: html écrit ', html_path_enriched)
print('articles listés :',count_articles)

View File

@ -3,6 +3,9 @@ import json
import os import os
from collections import defaultdict from collections import defaultdict
from utils import *
from website_config import *
parser = argparse.ArgumentParser(description="Générer un site Web à partir de fichiers HTML.") parser = argparse.ArgumentParser(description="Générer un site Web à partir de fichiers HTML.")
parser.add_argument("blog_name", help="Le chemin vers le dossier contenant les fichiers HTML.") parser.add_argument("blog_name", help="Le chemin vers le dossier contenant les fichiers HTML.")
@ -15,6 +18,7 @@ directory_fr = f'{directory_base}/lang_fr' # Remplacez par le chemin de votre d
output_file = f'sources/{blog_folder}/converted/tags.json' # Fichier de sortie output_file = f'sources/{blog_folder}/converted/tags.json' # Fichier de sortie
html_output_folder = f'html-websites/{blog_folder}/tags' # Dossier de sortie pour les fichiers HTML html_output_folder = f'html-websites/{blog_folder}/tags' # Dossier de sortie pour les fichiers HTML
excluded_tags = {'PROPERTIES', 'CREATED', 'ID', 'END'} excluded_tags = {'PROPERTIES', 'CREATED', 'ID', 'END'}
automatic_tagging_enabled=True
count_orgfiles = 0 count_orgfiles = 0
@ -33,15 +37,47 @@ def find_org_files(directory):
return org_files return org_files
def add_tags_from_content(tags=None, file_content="", words_to_check=None):
"""
Ajoute des tags à l'ensemble `tags` si les mots correspondants sont trouvés dans le contenu du fichier.
:param tags: Ensemble de tags (set). Si None, un nouvel ensemble est créé (type set, optionnel).
:param file_content: Contenu du fichier (str).
:param words_to_check: Liste de mots à repérer (list). Si None, une liste vide est utilisée (type list, optionnel).
:return: Ensemble de tags mis à jour (set).
"""
# Initialiser l'ensemble tags s'il est None
if tags is None:
tags = set()
# Initialiser la liste words_to_check s'il est None
if words_to_check is None:
words_to_check = []
# Convertir le contenu du fichier en minuscules pour une recherche insensible à la casse
file_content_lower = file_content.lower()
# Parcourir chaque mot à vérifier
for word in words_to_check:
# Vérifier si le mot est présent dans le contenu du fichier
if word.lower() in file_content_lower:
# Ajouter le tag correspondant à l'ensemble de tags
tags.add(word)
return tags
def extract_tags_from_file(file_path, excluded_tags, count_not_tagged_files=0): def extract_tags_from_file(file_path, excluded_tags, count_not_tagged_files=0):
tags = set() tags = set()
with open(file_path, 'r', encoding='utf-8') as file: with open(file_path, 'r', encoding='utf-8') as file_content:
tag_found = False tag_found = False
for line in file: for line in file_content:
if automatic_tagging_enabled:
tags = add_tags_from_content(tags, line, global_config['auto_tag_terms'])
# Check for orgmode tags :tag1:tag2: # Check for orgmode tags :tag1:tag2:
if ':' in line: if ':' in line:
for word in line.split(): for word in line.split():
if word.startswith(':') and word.endswith(':'): if len(word) and word.startswith(':') and word.endswith(':'):
tag = word[1:-1] tag = word[1:-1]
if tag not in excluded_tags: if tag not in excluded_tags:
tags.add(tag) tags.add(tag)
@ -53,6 +89,8 @@ def extract_tags_from_file(file_path, excluded_tags, count_not_tagged_files=0):
if tag and tag not in excluded_tags: if tag and tag not in excluded_tags:
tags.add(tag) tags.add(tag)
tag_found = True tag_found = True
if not tag_found: if not tag_found:
count_not_tagged_files = count_not_tagged_files + 1 count_not_tagged_files = count_not_tagged_files + 1
print('no tag in the article', file_path) print('no tag in the article', file_path)
@ -73,7 +111,7 @@ def save_to_json(tag_to_files, output_file):
json.dump({tag: list(files) for tag, files in tag_to_files.items()}, json_file, ensure_ascii=False, indent=4) json.dump({tag: list(files) for tag, files in tag_to_files.items()}, json_file, ensure_ascii=False, indent=4)
def generate_html_pages(tag_to_files, html_output_folder): def generate_html_pages_for_all_tags(tag_to_files, html_output_folder):
if not os.path.exists(html_output_folder): if not os.path.exists(html_output_folder):
os.makedirs(html_output_folder) os.makedirs(html_output_folder)
@ -84,15 +122,20 @@ def generate_html_pages(tag_to_files, html_output_folder):
<head> <head>
<meta charset="UTF-8"> <meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Fichiers .org pour le tag {tag}</title> <title>Articles comportant le tag "{tag}"</title>
</head> </head>
<body> <body>
<h1>Fichiers .org pour le tag {tag}</h1> <h1>Articles comportant le tag "{tag}"</h1>
<ul> <ul>
""" """
for file_path in files: for file_path_org in files:
relative_path = os.path.relpath(file_path, start=directory_fr) basename_file= os.path.basename(file_path_org)
html_content += f" <li><a href='{relative_path}'>{relative_path}</a></li>\n"
nom_article = trouver_nom_article( file_path_org, blog_folder, 'org')
slug = trouver_slug_in_article(file_path_org)
print('nom_article',nom_article)
html_content += f" <li><a href='/{slug}'>{nom_article}</a></li>\n"
html_content += """ html_content += """
</ul> </ul>
@ -108,6 +151,29 @@ def generate_html_pages(tag_to_files, html_output_folder):
print(f"Pages HTML générées dans {html_output_folder}") print(f"Pages HTML générées dans {html_output_folder}")
def trouver_slug_in_article(file_path_org):
"""
Trouve le contenu de la variable #+slug: dans un fichier Org.
:param file_path_org: Chemin complet du fichier Org (str).
:return: Valeur du slug (str) ou None si non trouvé.
"""
slug = None
try:
with open(file_path_org, 'r', encoding='utf-8') as file:
for line in file:
if line.startswith("#+slug:"):
slug = line[len("#+slug:"):].strip()
break
except FileNotFoundError:
print(f"Le fichier {file_path_org} n'a pas été trouvé.")
except Exception as e:
print(f"Une erreur s'est produite : {e}")
return slug
def generate_index_page(tag_to_files, html_output_folder): def generate_index_page(tag_to_files, html_output_folder):
index_content = f""" index_content = f"""
<!DOCTYPE html> <!DOCTYPE html>
@ -148,7 +214,7 @@ if __name__ == "__main__":
tag_to_files = group_files_by_tags(org_files, excluded_tags, count_not_tagged_files) tag_to_files = group_files_by_tags(org_files, excluded_tags, count_not_tagged_files)
save_to_json(tag_to_files, output_file) save_to_json(tag_to_files, output_file)
generate_html_pages(tag_to_files, html_output_folder) generate_html_pages_for_all_tags(tag_to_files, html_output_folder)
generate_index_page(tag_to_files, html_output_folder) generate_index_page(tag_to_files, html_output_folder)
print(f"Tags et fichiers associés ont été enregistrés dans {output_file}") print(f"Tags et fichiers associés ont été enregistrés dans {output_file}")

View File

@ -1,26 +1,53 @@
# on redimensionne nos images qui ullustreront les articles,
# pour cela on les copie dans notre dossier pictures_inbox.
# elles sont copiées en version réduite, et déplacées dans le dossier de l'année
# ce script génère aussi de quoi copier des liens org affichant les thumbnails de l'image liée à la grande version
import os import os
from PIL import Image
from datetime import datetime from datetime import datetime
from PIL import Image, ExifTags
# Variables # Variables
INPUT_DIR = "pictures_inbox" INPUT_DIR = "pictures_inbox"
DONE_DIR = "pictures_done"
OUTPUT_DIR = "output/pictures" OUTPUT_DIR = "output/pictures"
YEAR = datetime.now().strftime("%Y") YEAR = datetime.now().strftime("%Y")
SMALL_SUFFIX = "_small" SMALL_SUFFIX = "_small"
IMAGE_FORMAT = "jpg" IMAGE_FORMAT = "jpg"
max_width_resized=600 # pixels max de largeur
url_folder_pics="https://www.tykayn.fr/wp-uploads/content/i"
# Créer le dossier de sortie s'il n'existe pas # Créer le dossier de sortie s'il n'existe pas
os.makedirs(os.path.join(OUTPUT_DIR, YEAR), exist_ok=True) os.makedirs(os.path.join(OUTPUT_DIR, YEAR), exist_ok=True)
def get_exif_orientation(image):
"""Obtenir l'orientation de l'image à partir des métadonnées EXIF."""
try:
exif = image._getexif()
if exif is not None:
for orientation in ExifTags.TAGS.keys():
if ExifTags.TAGS[orientation] == 'Orientation':
return exif[orientation]
except AttributeError:
pass
return None
def apply_orientation(image, orientation):
"""Appliquer l'orientation à l'image."""
if orientation == 3:
return image.rotate(180, expand=True)
elif orientation == 6:
return image.rotate(270, expand=True)
elif orientation == 8:
return image.rotate(90, expand=True)
return image
if len(os.listdir(INPUT_DIR)):
print('traitement des images dans pictures inbox', len(os.listdir(INPUT_DIR)))
# Parcourir toutes les images dans le dossier d'entrée # Parcourir toutes les images dans le dossier d'entrée
for filename in os.listdir(INPUT_DIR): for filename in os.listdir(INPUT_DIR):
file_path = os.path.join(INPUT_DIR, filename)
# Vérifier si c'est bien un fichier # Vérifier si c'est bien un fichier
if os.path.isfile(os.path.join(INPUT_DIR, filename)): if os.path.isfile(file_path) and (file_path.lower().endswith('.jpg') or file_path.lower().endswith('.png')):
# Récupérer le nom de base de l'image et son extension # Récupérer le nom de base de l'image et son extension
base_name = os.path.splitext(filename) base_name = os.path.splitext(filename)
extension = os.path.splitext(filename)[1].lower() extension = os.path.splitext(filename)[1].lower()
@ -30,21 +57,29 @@ for filename in os.listdir(INPUT_DIR):
# Chemins des images # Chemins des images
input_image_path = os.path.join(INPUT_DIR, filename) input_image_path = os.path.join(INPUT_DIR, filename)
done_image_path = os.path.join(DONE_DIR, filename)
small_image_path = os.path.join(OUTPUT_DIR, YEAR, small_image_name) small_image_path = os.path.join(OUTPUT_DIR, YEAR, small_image_name)
original_image_path = os.path.join(OUTPUT_DIR, YEAR, filename) original_image_path = os.path.join(OUTPUT_DIR, YEAR, filename)
# Redimensionner l'image # Ouvrir l'image et appliquer l'orientation
with Image.open(input_image_path) as img: with Image.open(input_image_path) as img:
img = img.resize((600, int(img.height * 600 / img.width)), Image.Resampling.LANCZOS) orientation = get_exif_orientation(img)
if orientation is not None:
img = apply_orientation(img, orientation)
# Redimensionner l'image
img = img.resize((max_width_resized, int(img.height * max_width_resized / img.width)), Image.Resampling.LANCZOS)
img.save(small_image_path, 'JPEG') # Utiliser 'JPEG' au lieu de 'JPG' img.save(small_image_path, 'JPEG') # Utiliser 'JPEG' au lieu de 'JPG'
# Copier l'image originale dans le dossier de sortie # Copier l'image originale dans le dossier de sortie
with open(input_image_path, 'rb') as f: with open(input_image_path, 'rb') as f:
with open(original_image_path, 'wb') as f_out: with open(original_image_path, 'wb') as f_out:
f_out.write(f.read()) f_out.write(f.read())
# déplacer l'image originale dans le dossier des images traitées
os.rename(input_image_path, done_image_path)
# Écrire la ligne pour le document .org # Écrire la ligne pour le document .org
org_line = f"[[file:wp-uploads/content/i/{YEAR}/{small_image_name}][{filename}]]\n"
org_line = f"\n\n[[file:{url_folder_pics}/{YEAR}/{small_image_name}][{filename}]]\n"
with open(os.path.join("output", f"images_{YEAR}.org"), "a") as org_file: with open(os.path.join("output", f"images_{YEAR}.org"), "a") as org_file:
org_file.write(org_line) org_file.write(org_line)