move to several websites

This commit is contained in:
Tykayn 2024-11-03 11:06:34 +01:00 committed by tykayn
parent fd91226782
commit 2bcb27cd36
2020 changed files with 125 additions and 685 deletions

View File

@ -46,3 +46,9 @@ https://forge.chapril.org/tykayn/org-report-stats
Dotclear, Wordpress, Hugo, Pélican
Pandoc, PandocGmi
https://github.com/njamescouk/pandocGmi/tree/master
# Roadmap
- TODOgestion multi site et multi langue
- TODOconfig par site web de son nom de domaine
- TODO réécriture des liens internes
- TODOgestion des langues dans la source et la destination

View File

@ -1,59 +0,0 @@
import os
import re
from datetime import datetime
# Chemin du dossier source
source_dir = "source"
# Expression régulière pour extraire la date du contenu de l'article
date_regex = re.compile(r"\b(\d{4}-\d{2}-\d{2})\b")
# Liste des fichiers org-mode trouvés
org_files = []
# Parcourt le dossier source à la recherche de fichiers org-mode
for root, dirs, files in os.walk(source_dir):
for file in files:
if file.endswith(".org"):
# Ouvre le fichier et recherche la première date dans le contenu de l'article
with open(os.path.join(root, file), "r", encoding="utf-8") as f:
content = f.read()
match = date_regex.search(content)
if match:
date = datetime.strptime(match.group(1), "%Y-%m-%d")
# Ajoute le fichier à la liste avec sa date correspondante
org_files.append((date, os.path.join(root, file)))
# Tri des fichiers par ordre décroissant de date
org_files.sort(reverse=True)
# Génération du flux Atom
atom_feed = {"title": "Flux Atom des articles GMI", "link": "http://www.example.com/atom", "updated": org_files[0][0].strftime("%Y-%m-%dT%H:%M:%SZ"), "entries": []}
for date, file in org_files:
# Parse le fichier org-mode pour extraire le titre, la description et la date de publication
with open(file, "r", encoding="utf-8") as f:
content = f.read()
title = re.search(r"\*+ (.+)\n", content).group(1)
description = re.search(r"\n+ (.+)\n", content, re.DOTALL).group(1)
published = date.strftime("%Y-%m-%dT%H:%M:%SZ")
# Ajoute l'article au flux Atom
atom_entry = {"title": title, "link": file, "summary": description, "published": published}
atom_feed["entries"].append(atom_entry)
if date > datetime.strptime(atom_feed["updated"], "%Y-%m-%dT%H:%M:%SZ"):
atom_feed["updated"] = published
# Enregistrement du flux Atom dans un fichier
with open("articles.atom", "w", encoding="utf-8") as f:
f.write("<?xml version=\"1.0\" encoding=\"UTF-8\"?>\n")
f.write("<feed xmlns=\"http://www.w3.org/2005/Atom\">\n")
f.write(f" <title>{atom_feed['title']}</title>\n")
f.write(f" <link href=\"{atom_feed['link']}\"/>\n")
f.write(f" <updated>{atom_feed['updated']}</updated>\n")
for entry in atom_feed["entries"]:
f.write(" <entry>\n")
f.write(f" <title>{entry['title']}</title>\n")
f.write(f" <link href=\"{entry['link']}\"/>\n")
f.write(f" <summary>{entry['summary']}</summary>\n")
f.write(f" <published>{entry['published']}</published>\n")
f.write(" </entry>\n")
f.write("</feed>\n")

View File

@ -1,32 +1,55 @@
#!/bin/bash
# conversion des pages d'articles depuis le dossier source en orgmode
cd source
mkdir converted
for i in *.org ; do echo "$i" && pandoc -f org -t markdown -s $i -o $i.md ; done
for i in *.org ; do echo "$i" && pandoc -f org -t html -s $i -o $i.html ; done
for i in *.org ; do echo "$i" && pandoc --template ../template_gemini.lua -f org -t ../gmi.lua -s $i -o $i.gmi ; cat '../website_pages/footer-articles.md.gmi' >> $i.gmi ; done
mkdir -p converted
# liste des dossiers à convertir
blogs_folders=("dragonfeu")
source_file_extension="org"
# Définition de la fonction generate_website
generate_website() {
echo " Génération du site $1..."
mkdir gemini-capsules/$website_name
mkdir html-websites/$website_name
mv source/converted/*.gmi gemini-capsules/$website_name
mv source/converted/*.html gemini-capsules/$website_name
# Ajoutez ici le code pour générer le site Web
echo "Le site $1 a été généré avec succès."
for i in *.$source_file_extension ; do echo "$i" && pandoc -f $source_file_extension -t markdown -s $i -o $i.md ; done
for i in *.$source_file_extension ; do echo "$i" && pandoc -f $source_file_extension -t html -s $i -o $i.html ; done
for i in *.$source_file_extension ; do echo "$i" && pandoc --template ../template_gemini.lua -f $source_file_extension -t ../gmi.lua -s $i -o $i.gmi ; cat '../website_pages/footer-articles.md.gmi' >> $i.gmi ; done
mv *.md converted
mv *.html converted
mv *.gmi converted
cd ..
#mv *.org ../org
# conversion des pages d'articles en markwon si vous utilisez une source d'articles en markdown, perso c'est orgmode
#cd md
#for i in *.md ; do echo "$i" && pandoc -f markdown -t org -s $i -o $i.org ; done
#mv *.org ../org
#cd ..
# conversion des pages statiques
cd website_pages
for i in *.md ; do echo "$i" && pandoc --template ../template_gemini.lua -f markdown -t ../gmi.lua -s $i -o $i.gmi ; done
for i in *.org ; do echo "$i" && pandoc --template ../template_gemini.lua -f org -t ../gmi.lua -s $i -o $i.gmi ; done
# mv *.gmi ../
mv *.gmi ../source/converted
cd ..
# création de l'index:
# prendre les fichiers markdown du dossier md/ , et créer un index des fichiers situés dedans, rangés par nom de fichier décroissant, sauver le tout dans un fichier index.gmi
python3 build_index_gemini.py
mv index.gmi source/converted
python3 enrich_html.py
}
# regrouper les types de fichiers générés
cd source/converted
# Boucle à travers la liste des sites Web
for website_name in "${sites[@]}"; do
generate_website $website_name
done

Some files were not shown because too many files have changed in this diff Show More