Bonjour,
en contrôlant le serveur de nad.blue (publicité clandestine) j’ai trouvé le POI ayant comme ID
https://data.datatourisme.fr/22/61fbbc11-a645-385c-afa3-33d43c1dafb9
Ce qu’il a de particulier c’est que 730 dates, 2 horaires pour chacun des 365 jours de l’année, ont été saisies pour ce POI intitulé « Les veilleurs de Capdenac ! de Joanne Leighton ». Et chaque date soigneusement saisie sous les ontologies https://www.datatourisme.fr/ontology/core# et http://schema.org. Soit plus de 8.500 triplets pour cet évènement qui semble par ailleurs très intéressant.
J’ai corrigé mon SPARQL pour limiter le nombre de dates remontées (désolé Joanne) mais je me demande comment il a été possible de saisir toutes ces informations. « A la main », ce qui suppose un travail qui mérite l’admiration, ou par un procédé automatique, et dans ce cas comment ? Et, question subsidiaire, quels sont les contrôles effectués sur les données intégrées dans Datatourisme ?