hopla
This commit is contained in:
parent
9ff38a3aa8
commit
229d71b4a1
86
google_searches_to_json_activities.mjs
Normal file
86
google_searches_to_json_activities.mjs
Normal file
@ -0,0 +1,86 @@
|
||||
import fs from "node-fs";
|
||||
import {writeFileInOuputFolder} from "./parse_orgmode_to_json.mjs";
|
||||
import moment from "moment";
|
||||
|
||||
|
||||
/**********************
|
||||
* initialize configs
|
||||
**********************/
|
||||
|
||||
const fileArray = ["2007-07-01 De juillet 2007 à septembre 2007.json","2007-10-01 De octobre 2007 à décembre 2007.json","2008-04-01 De avril 2008 à juin 2008.json","2008-07-01 De juillet 2008 à septembre 2008.json","2008-10-01 De octobre 2008 à décembre 2008.json","2009-01-01 De janvier 2009 à mars 2009.json","2009-04-01 De avril 2009 à juin 2009.json","2009-07-01 De juillet 2009 à septembre 2009.json","2009-10-01 De octobre 2009 à décembre 2009.json","2010-01-01 De janvier 2010 à mars 2010.json","2010-04-01 De avril 2010 à juin 2010.json","2010-07-01 De juillet 2010 à septembre 2010.json","2010-10-01 De octobre 2010 à décembre 2010.json","2011-01-01 De janvier 2011 à mars 2011.json","2011-04-01 De avril 2011 à juin 2011.json","2011-07-01 De juillet 2011 à septembre 2011.json","2011-10-01 De octobre 2011 à décembre 2011.json","2012-01-01 De janvier 2012 à mars 2012.json","2012-04-01 De avril 2012 à juin 2012.json","2012-07-01 De juillet 2012 à septembre 2012.json","2012-10-01 De octobre 2012 à décembre 2012.json","2013-01-01 De janvier 2013 à mars 2013.json","2013-04-01 De avril 2013 à juin 2013.json","2013-07-01 De juillet 2013 à septembre 2013.json","2013-10-01 De octobre 2013 à décembre 2013.json","2014-01-01 De janvier 2014 à mars 2014.json","2014-04-01 De avril 2014 à juin 2014.json","2014-07-01 De juillet 2014 à septembre 2014.json","2014-10-01 De octobre 2014 à décembre 2014.json","2015-01-01 De janvier 2015 à mars 2015.json","2015-04-01 De avril 2015 à juin 2015.json","2015-07-01 De juillet 2015 à septembre 2015.json","2015-10-01 De octobre 2015 à décembre 2015.json","2016-01-01 De janvier 2016 à mars 2016.json","2016-04-01 De avril 2016 à juin 2016.json","2016-07-01 De juillet 2016 à septembre 2016.json","2016-10-01 De octobre 2016 à décembre 2016.json","2017-01-01 De janvier 2017 à mars 2017.json","2017-04-01 De avril 2017 à juin 2017.json"]
|
||||
const fileNameAllEvents = 'all_researches.tsv';
|
||||
|
||||
|
||||
const headersTsv = 'amount\t' +
|
||||
'content\t' +
|
||||
'description\t' +
|
||||
'destination\t' +
|
||||
'end\t' +
|
||||
'kind of activity\t' +
|
||||
'person\t' +
|
||||
'place\t' +
|
||||
'source\t' +
|
||||
'start\t' +
|
||||
'unique id\t' +
|
||||
'url\t'
|
||||
let allEvents = [
|
||||
headersTsv
|
||||
];
|
||||
const events = [headersTsv];
|
||||
|
||||
async function convertJsonToActivities(sourceFilePath, outputFileName)
|
||||
{
|
||||
await fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
|
||||
|
||||
|
||||
data = JSON.parse(data)
|
||||
// console.log('data', Object.keys(data[0]))
|
||||
data['event'].forEach(item => {
|
||||
|
||||
// let timemoment = moment.unix(item.query.id[0].timestamp_usec)
|
||||
let stamp =Math.round( item.query.id[0].timestamp_usec / 1000);
|
||||
let mydate = new Date(stamp)
|
||||
let timemoment = moment( mydate)
|
||||
|
||||
// return;
|
||||
// console.log('mydate',item.query.id[0].timestamp_usec, item.query.id[0].timestamp_usec.length , stamp, mydate)
|
||||
// convert all fields to common event description
|
||||
let newLine =
|
||||
'\t' +
|
||||
item.query.query_text + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'recherche' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
timemoment.format() + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t'
|
||||
|
||||
|
||||
events.push(newLine)
|
||||
// console.log('events', events.length)
|
||||
allEvents.push(newLine)
|
||||
})
|
||||
console.log('events', events.length)
|
||||
writeFileInOuputFolder(outputFileName, events.join("\n"))
|
||||
})
|
||||
}
|
||||
|
||||
fileArray.forEach(item=>{
|
||||
|
||||
let filename = item
|
||||
let sourceFilePath = '/home/tykayn/Nextcloud/ressources/social sorting/2022-12-31_recherches/'+filename
|
||||
|
||||
let outputFileName = filename.replace('json' , 'tsv')
|
||||
|
||||
convertJsonToActivities(sourceFilePath,outputFileName);
|
||||
})
|
||||
|
||||
writeFileInOuputFolder(fileNameAllEvents, events.join("\n"))
|
||||
|
||||
|
||||
|
@ -2,7 +2,8 @@
|
||||
"dependencies": {
|
||||
"d3": "^7.8.2",
|
||||
"node-fs": "^0.1.7",
|
||||
"nodemon": "^2.0.19"
|
||||
"nodemon": "^2.0.19",
|
||||
"xml-js": "^1.6.11"
|
||||
},
|
||||
"scripts": {
|
||||
"start": "node app.js"
|
||||
|
@ -12,6 +12,7 @@ import moment from 'moment';
|
||||
|
||||
const sourceFileName = 'all_tasks.org'
|
||||
const sourceFilePath = './sources/' + sourceFileName;
|
||||
const outputAbsolutePath = '/home/tykayn/Nextcloud/ressources/social sorting/output/';
|
||||
|
||||
let headers = []
|
||||
let tasksObjectsForJsonExport = []
|
||||
@ -90,13 +91,17 @@ function addAndRefreshCurrentTask() {
|
||||
};
|
||||
|
||||
function makeWordsStatistics(sentence) {
|
||||
sentence.split(' ')?.forEach(word => {
|
||||
let split = sentence.split(' ');
|
||||
if (split && split.length) {
|
||||
|
||||
split.forEach(word => {
|
||||
if (!statistics.words[word]) {
|
||||
statistics.words[word] = 0
|
||||
}
|
||||
statistics.words[word]++
|
||||
})
|
||||
}
|
||||
}
|
||||
|
||||
/**********************
|
||||
* loop to parse all
|
||||
@ -128,7 +133,11 @@ fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
|
||||
isHeader = true;
|
||||
// compter les étoiles pour trouver le niveau du header
|
||||
currentTask.level = line.match(/\*/g)?.length
|
||||
if (line.match(/\*/g)) {
|
||||
|
||||
let match = line.match(/\*/g);
|
||||
currentTask.level = match.length
|
||||
}
|
||||
|
||||
// create a new task
|
||||
|
||||
@ -150,7 +159,9 @@ fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
if (tagsFound) {
|
||||
tagsFound = tagsFound[0];
|
||||
let tagList = tagsFound.split(':');
|
||||
tagList?.forEach(tag => {
|
||||
if (tagList.length) {
|
||||
|
||||
tagList.forEach(tag => {
|
||||
if (tag.length > 1) {
|
||||
|
||||
if (!statistics.tags[tag]) {
|
||||
@ -162,6 +173,7 @@ fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
}
|
||||
})
|
||||
}
|
||||
}
|
||||
|
||||
|
||||
// ------------- fin des recherches dans la ligne de Header -------------
|
||||
@ -229,7 +241,7 @@ fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
// console.log('tasksObjectsForJsonExport', jsonContent)
|
||||
|
||||
if (writeJsonAfterParse) {
|
||||
writeJsonFile('export_' + sourceFileName + '_parsed.json', JSON.stringify(jsonContent));
|
||||
writeFileInOuputFolder('export_' + sourceFileName + '_parsed.json', JSON.stringify(jsonContent));
|
||||
}
|
||||
|
||||
})
|
||||
@ -317,11 +329,11 @@ function cleanHeader(line) {
|
||||
return line.trim();
|
||||
}
|
||||
|
||||
function writeJsonFile(fileName, fileContent) {
|
||||
export async function writeFileInOuputFolder(fileName, fileContent) {
|
||||
console.log('write file ', fileName);
|
||||
|
||||
return fs.writeFile(
|
||||
`./output/${fileName}`,
|
||||
return await fs.writeFile(
|
||||
`${outputAbsolutePath}${fileName}`,
|
||||
fileContent,
|
||||
"utf8",
|
||||
(err) => {
|
||||
|
@ -11,34 +11,35 @@ date >> stats.org
|
||||
echo " décomptes: " >> stats.org
|
||||
# dans les archives, les tâches sont toujours un header de niveau 1, on peut donc les trouver avec la recherche de : "* "
|
||||
todos=`grep -o '* TODO' all_tasks.org | wc -l`
|
||||
echo " TODO : $todos"
|
||||
echo " TODO : $todos" | tee -a ./stats.org
|
||||
|
||||
counter=`grep -o '* SOMEDAY' all_tasks.org | wc -l`
|
||||
echo " SOMEDAY : $counter"
|
||||
echo " SOMEDAY : $counter" | tee -a ./stats.org
|
||||
someday=$counter
|
||||
|
||||
counter=`grep -o '* WAITING' all_tasks.org | wc -l`
|
||||
echo " WAITING : $counter"
|
||||
echo " "
|
||||
echo " WAITING : $counter" | tee -a ./stats.org
|
||||
echo " " | tee -a ./stats.org
|
||||
counter=`grep -o '* CANCELLED' all_tasks.org | wc -l`
|
||||
cancelled_tasks=$counter
|
||||
echo " CANCELLED : $counter"
|
||||
echo " CANCELLED : $counter" | tee -a ./stats.org
|
||||
|
||||
counter=`grep -o '* DONE' all_tasks.org | wc -l`
|
||||
done=$counter
|
||||
echo " DONE : $counter"
|
||||
echo " DONE : $counter" | tee -a ./stats.org
|
||||
|
||||
prevus=$((todos + someday))
|
||||
finis=$((cancelled_tasks + done))
|
||||
tout=$((prevus + finis))
|
||||
echo " "
|
||||
echo " prévus : $prevus"
|
||||
echo " finis : $finis"
|
||||
echo " " | tee -a ./stats.org
|
||||
echo " prévus : $prevus" | tee -a ./stats.org
|
||||
echo " finis : $finis" | tee -a ./stats.org
|
||||
counter=`grep -o '* CREATED' all_tasks.org | wc -l`
|
||||
echo " CREATED : $counter"
|
||||
echo " en tout : $tout"
|
||||
echo " CREATED : $counter" | tee -a ./stats.org
|
||||
echo " en tout : $tout" | tee -a ./stats.org
|
||||
counter=`ls -l ~/Nextcloud/textes/orgmode/org-roam/*.org | wc -l`
|
||||
echo " Roam files : $counter"
|
||||
echo " Roam files : $counter" | tee -a ./stats.org
|
||||
echo " " | tee -a ./stats.org
|
||||
|
||||
#pandoc -i all_tasks.org -o all_tasks.json
|
||||
|
||||
|
159
sms_to_csv.mjs
Normal file
159
sms_to_csv.mjs
Normal file
@ -0,0 +1,159 @@
|
||||
import fs from "node-fs";
|
||||
import convert from "xml-js";
|
||||
import {writeFileInOuputFolder} from "./parse_orgmode_to_json.mjs";
|
||||
|
||||
/**********************
|
||||
* initialize configs
|
||||
**********************/
|
||||
|
||||
const sourceFileName = 'sms-20180423162531.xml'
|
||||
const outputFileJson = 'sms-20180423162531.json'
|
||||
const sourceFileJson = 'output/' + outputFileJson
|
||||
const outputFileCsv = 'sms-20180423162531.tsv'
|
||||
const sourceFilePath = '/home/tykayn/Nextcloud/ressources/social sorting/' + sourceFileName;
|
||||
|
||||
let headers = []
|
||||
let tasksObjectsForJsonExport = []
|
||||
let headersByKind = {}
|
||||
let writeJsonAfterParse = false;
|
||||
writeJsonAfterParse = true;
|
||||
|
||||
/**************************************************************
|
||||
* fetch the source file to read its contents
|
||||
*************************************************************/
|
||||
|
||||
console.log('parse some org file', sourceFilePath)
|
||||
if (!sourceFilePath) {
|
||||
console.error('pas de fichier à ouvrir')
|
||||
}
|
||||
|
||||
function convertToCsv(elementsArray) {
|
||||
elementsArray.forEach(item => {
|
||||
console.log('item._attributes.date_sent', item._attributes.date_sent)
|
||||
console.log('item._attributes.contact_name', item._attributes.date_sent)
|
||||
console.log('item._attributes.body', item._attributes.date_sent)
|
||||
})
|
||||
}
|
||||
|
||||
function convertJsonToCsv(sourceFilePath, outputFileName) {
|
||||
fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
|
||||
const events = [
|
||||
|
||||
'amount\t' +
|
||||
'content\t' +
|
||||
'description\t' +
|
||||
'destination\t' +
|
||||
'end\t' +
|
||||
'kind of activity\t' +
|
||||
'person\t' +
|
||||
'place\t' +
|
||||
'source\t' +
|
||||
'start\t' +
|
||||
'unique id\t' +
|
||||
'url\t'
|
||||
];
|
||||
data = JSON.parse(data)
|
||||
console.log('data', data)
|
||||
// console.log('data', Object.keys(data[0]))
|
||||
data['smses']['sms'].forEach(item => {
|
||||
|
||||
// convert all fields to common event description
|
||||
events.push(
|
||||
'\t' +
|
||||
item._attributes.body.replace('\n', ' ') + '\t' +
|
||||
'sms ' + item._attributes.address + ' le ' + item._attributes.readable_date + '\t' +
|
||||
item._attributes.address + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
item._attributes.contact_name + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t'
|
||||
)
|
||||
})
|
||||
console.log('events', events)
|
||||
writeFileInOuputFolder(outputFileName, events.join("\n"))
|
||||
})
|
||||
}
|
||||
|
||||
function openSourceFile() {
|
||||
|
||||
fs.stat(sourceFilePath, function (err, data) {
|
||||
if (err == null) {
|
||||
console.log(`File ${sourceFilePath} exists`);
|
||||
|
||||
/**********************
|
||||
* loop to parse all
|
||||
*********************/
|
||||
fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
// console.log('data', data)
|
||||
var jsonConversion = convert.xml2json(data, {compact: true, spaces: 2});
|
||||
// console.log('smses', Object.keys(jsonConversion))
|
||||
console.log('jsonConversion[0]', jsonConversion['10'])
|
||||
|
||||
writeFileInOuputFolder(outputFileJson, jsonConversion)
|
||||
convertJsonToCsv(sourceFileJson, outputFileCsv)
|
||||
|
||||
})
|
||||
|
||||
|
||||
} else if (err.code === 'ENOENT') {
|
||||
// file does not exist
|
||||
console.error(`le fichier ${sourceFilePath} est introuvable. Impossible d en extraire des infos.`, err);
|
||||
|
||||
} else {
|
||||
console.log('Some other error: ', err.code);
|
||||
}
|
||||
});
|
||||
}
|
||||
|
||||
|
||||
// openSourceFile()
|
||||
|
||||
function convertJsonToCsv(sourceFilePath, outputFileName) {
|
||||
fs.readFile(sourceFilePath, 'utf8', function (err, data) {
|
||||
|
||||
const events = [
|
||||
|
||||
'amount\t' +
|
||||
'content\t' +
|
||||
'description\t' +
|
||||
'destination\t' +
|
||||
'end\t' +
|
||||
'kind of activity\t' +
|
||||
'person\t' +
|
||||
'place\t' +
|
||||
'source\t' +
|
||||
'start\t' +
|
||||
'unique id\t' +
|
||||
'url\t'
|
||||
];
|
||||
data = JSON.parse(data)
|
||||
console.log('data', data)
|
||||
// console.log('data', Object.keys(data[0]))
|
||||
data['smses']['sms'].forEach(item => {
|
||||
|
||||
// convert all fields to common event description
|
||||
events.push(
|
||||
'\t' +
|
||||
item._attributes.body.replace('\n', ' ') + '\t' +
|
||||
'sms ' + item._attributes.address + ' le '+item._attributes.readable_date+'\t' +
|
||||
item._attributes.address + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
item._attributes.contact_name + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t' +
|
||||
'' + '\t'
|
||||
)
|
||||
})
|
||||
console.log('events', events)
|
||||
writeFileInOuputFolder(outputFileName, events.join("\n"))
|
||||
})
|
||||
}
|
||||
|
Loading…
Reference in New Issue
Block a user