Ben le second degré c'est de dire l'inverse de ce qu'on veut dire. Du coup si tu dis des trucs sensés alors que tu penses des trucs débiles, ça ne change pas le fait que tu penses des trucs débiles. Et là c'est malsain parce que tu tentes d'embrouiller la galerie pour dire des saloperies sans en avoir l'air.
Moui, je pense que beaucoup se souvenaient du referendum de Maastrich qui n'était pas passé comme sur des roulettes. Je suis loin d'être certain qu'ils aient pêché par excès d'optimisme. D'ailleurs nombreux sont ceux qui se méfient comme la peste des référendums.
Il y a autre chose : c'est quand même une des organisations qui ont apporté et apportent encore du financement au libre pour ses valeurs intrinsèques en payant des développeurs.
Dans le monde des navigateurs on a plutôt vu Apple ou Google réutiliser du libre existant pour faire un navigateur qui soit bon techniquement. Puis intégrer leurs propres technos dedans (chrome) pour intégrer tout ça dans le web google. Mozilla leur a ouvert en quelque sorte la porte en militant pour un web interopérable depuis toujours, mais c'est sans doute la seule organisation à avoir cette approche - cf. par exemple google qui a il n'y a pas si longtemps fermé son réseau de messagerie instantané aux autres serveurs xmpp. Peut-être que Mozilla devrait (tenter de) faire ce qu'elle a déjà fait pour le web dans le domaine des communications et de la messageries d'ailleurs.
Ben, quand t'as une équipe et une expertise sur le navigateur et trucs à faire qui traînent depuis des lustres sur ta base de code, genre la parallélisation, avec un navigateur qui a désormais ses faiblesses mais qui tient pour autant la route, c'est dur de tout changer du jour au lendemain. Tu va perdre toute ton expertise, voire toutes les compétences de la structure.
J'ai un peu l'impression à la lecture de ton commentaire que tu demandes des trucs complètement contradictoires : tu veux l'écosystème solide du libre grâce à la diversité des acteurs tout en tenant absolument à l'un des acteurs. Tu "veux" détruire la culture corporate tout en tenant à la marque Mozilla - qui a adopté une structure et un coeur de métier en se concentrant sur un point précis.
On note que des gens comme Nitot semble être partis vers d'autres horizons, justement sans doute parce qu'ils sentent qu'il n'y a actuellement plus beaucoup de perspectives que du polissage des navigateurs (mais si on en croit la règle des 80/20 ça peut légèrement prendre du temps de "finir" un produit). Très bien pour eux, mais ça signifie pas que le reste de l'équipe Mozilla n'a pas envie de terminer le travail et n'a pas forcément l'énergie d'une reconversion totale à ce stade.
Bref, tu sembles avoir signé l'avis de décès de Mozilla en tant que structure. D'une part, c'est pas encore le cas, d'autre part, n'oublie pas l'équipe qui semble encore trouver la motivation pour travailler sur ce projet et l'aventure humaine autours. De ce point de vue là, la marque, on s'en contrefiche un peu.
Ben d'après l'article de Libé, il y a bel et bien un cas d'utilisation :
Le gouvernement justifie ce projet de fichier par la simplification – puisqu’il sera plus rapide d’obtenir un passeport et une carte nationale d’identité – et par la limitation des risques de falsifications.
La Commission considère en outre que, compte tenu de la nature des données traitées, les conséquences qu'aurait un détournement des finalités du fichier imposent des garanties substantielles et une vigilance particulière.
S'agissant des garanties, la Commission regrette que les dispositifs présentant moins de risques pour la protection des données personnelles, tels que la conservation de données biométriques sur un support individuel exclusivement détenu par la personne, n'aient pas été expertisés. Elle recommande dès lors une évaluation complémentaire du dispositif. Il en va de même s'agissant de la conservation des données biométriques brutes qui, pour des raisons de sécurité, pourrait être utilement remplacée par des gabarits de celles-ci.
Il s'agit bel et bien d'une implémentation, d'un point de vue sécurité des données, qui pose potentiellement bien plus de problème qu'un implémentation alternative. Il me semble assez sain de s'en inquiéter pour le citoyen.
Par ailleurs, ton raisonnement sur le fait que l'état possède déjà ces infos s'applique tout autant à mes exemples. C'est à dessein qu'on a rendu ces fichiers difficilement recoupable. C'est totalement différent de faire un énorme fichier centralisé que d'avoir chaque domaine de l'administration contrôler les données qui sont dans son périmètre.
Si c'est pour faciliter le croisement quand c'est pertinent, je préférerai largement un système d'autorisation à base d'un système de cryptage - genre si je veut autoriser la caf à savoir si j'ai droit à telle ou telle prestation, je me ramène avec ma clé privée à la caf et la guichetière interroge la sécu et valide avec ma clé privée. C'est un renversement total de perspective.
En gros tu te sers du fait que l'état est une seule et même entité pour justifier le fait qu'il n'y a pas de problème à centraliser les infos et à faire porter la responsabilité du croisement à des restrictions. C'est une approche qui se conteste. L'état a bel et bien différentes entités qui ont bel et bien des domaines différents. Une approche pyramidale ou le président aurait accès à toutes les données de chaque citoyen, ce qu'on obtient en poussant ton approche à l'extrême ? Moui, bof, il a déjà bien assez de pouvoir comme ça :)
Et pour éviter que certains employés (type employé de mairie) puisse recouper des infos alors qu'ils n'en ont pas les droits, la solution retenue consiste a retourner des informations tronquées a ces personnes.
Euh, justement, il n'y a pas besoin de recouper les infos si tout est déjà centralisé. Il y a besoin de recouper si elles sont dispersées. Si elles sont re-centralisées, c'est pour faciliter le recoupement, sans doute avec un cas d'utilisation précis en tête - c'est là ou je te trouve un poil naïf dans ton analyse en laissant supposer qu'il ne s'agit que d'un "détail d'implémentation" (parce qu'honnêtement à la base j'avais pas nécessairement l'intention de faire un scandale). Sinon c'est pas trop la peine de légiférer.
Euh non pas du tout. C'est une question de "separation of concerns" comme on dit en anglais pour la sécurité et d'autres bonnes pratique de génie logiciel : il est légitime que l'état civil ait accès à ton lieux de naissance, c'est son boulot, il est beaucoup moins légitime que la mairie, mettons la guichetière de la mairie, ait accès à ton dossier de santé, ou que ton médecin ait accès à ton dernier contrôle fiscal.
La question de qui a accès à quoi dans l'administration n'est pas du tout secondaire, et dans quelles conditions les données sont échangées si besoin est cruciale pour des raisons de protection de la vie privée du citoyen, car la raison d'être de l'état est … le citoyen. On est autant en droit de demander que l'état gère correctement nos données que de choisir ce qu'on publie sur facebook ou google+, et a qui. D'autant plus que si on est libre de pas s'inscrire sur facebook, on est inscrit à l'état civil à notre naissance.
Je surenchérirai : c'est relativement normal d'avoir les coudées franches pour dire ce qu'on veut dans l'opposition - liberté oblige - et de devoir se coltiner d'autres réalités une fois qu'on est au pouvoir. D'une certaine manière, ce simple effet peut expliquer une énorme partie de la convergence des politiques appliquées une fois qu'on est au pouvoir.
Je ne dis pas que ça explique tout, mais l'oublier est problématique. Corollaire : beaucoup d'initiatives de politiques alternatives finissent par tomber dans les même travers que les partis plus traditionnels.
Non il y a eu des robots qui ont simplement inséré des infoboîtes sur des articles qui n'en avaient pas. Ce qui a posé problème semble-t-il avec ces déploiements c'est à la fois une certaine hostilité générale de certains (Wikidata projet global, ressenti comme complexe, projet externe à Wikipédia en français) et d'autre part la difficulté du fait de contrôler que les infos dans l'article correspondent bien exactement aux informations de l'infobox. Certains tiennent absolument à un contrôle manuel.
Le truc bête avec cette approche c'est que comme l'erreur éventuelle - ou parfois une "incohérence" due au fait que Wikidata est plus précise que Wikipédia sur un lieux ou vice-versa - finalement une information erronée de Wikipédia qu'un lecteur de passage pourrait remarquer et signaler en remarquant que l'infobox est contradictoire avec l'article risque de ne pas l'être - signalée - et de rester telle quelle sur Wikipédia plus longtemps que si on avait bêtement tout déployé puis ensuite cherché à consolider.
C'est le deuxième jour de la semaine-anniversaire de Wikidata, et j'ai des nouvelles très cool pour toi.
Le service de requête Wikidata Query Service avait déjà des moyens très sympathiques d'afficher les résultats, comme les graphes, les diagrammes-bulles et les cartographies. Nous avons amélioré ça avec quatre nouveaux diagrammes :: les diagramme en ligne, en bâton, les diagrammes de dispersion et les diagrammes par zone!
Tout ça est déjà déployé sur le Query Service et vous pouvez tout utiliser immédiatement avec l'une de ces requêtes d'exemple : line chart, bar chart, scatter chart, area chart. Certaines de ces vues sont animées, et vous pouvez jouer avec en bougeant le curseur sur le diagramme, cliquer sur les légendes pour filtrer …
De grands Merci à Jonas qui a travaillé très dur sur ces nouvelles fonctionnalités afin qu'elles soient totalement prête pour l'anniversaire! Si vous avez des questions ou trouvez un bug, notifiez l'un de nous.
Nous avons aussi travaillé sur la documentation: jetez un œil sur la page présentant tous les types de visualisation que WDQS peut fournir. N'hésitez pas à améliorer ou traduire dans votre langue! Encore une fois, merci Jonas de passer du temps à améliorer la doc.
En parlant de documentation, je dois vous présenter ce très sympathique guide de SPARQL et du service de requête de WikidataFacts. Nous savons que comprendre la manière de fonctionner de SPARQL n'est pas simple pour les débutants, et toute aide est la bienvenue pour améliorer notre documentation actuelle :) N'hésitez pas à faire des retours sur ce travail. Merci WikidataFacts pour ce cadeau!
Dernière chose, mais pas la moindre, nous avons une histoire à propos des requêtes. Jens et Cornelius on écrit un billet nommé "10 requêtes cool qui vont vous scotcher. La numéro 7 va vous choquer." (dispo en anglais et en allemand) Ce n'est pas sur BuzzFeed (Q5003490) mais sur le blog de WMDE et c'est un moyen agréable d'introduire les requêtes aux nouveaux. Merci de partager!
C'est tout pour aujourd'hui, je vais vous laisser profiter de votre dimanche et reviendrai demain. En passant, Dimanche est un bon jour pour essayer de nouvelles requêtes: si vous voulez partager les votre, demander de l'aide sur une requête difficile ou donner des conseils, rejoingnez nous sur Twitter avec le hashtag #SundayQuery
Tu n'as pas l'air de connaître le droit des bases de données - une base de donnée ayant juridiquement une définition très très large … genre Une base de données se définit comme " un recueil d'œuvres, de données ou d'autres éléments indépendants, disposés de manière systématique ou méthodique, et individuellement accessibles par des moyens électroniques ou par tout autre moyen " conformément à l'article L. 112-3 du C.P.I. d'après http://www.caprioli-avocats.com/publications/43-propriete-intelectuelle/52-le-regime-juridique-des-bases-de-donnees
Ce qui fait que les infoboîtes sont potentiellement largement qualifiées. Donc on ne peut peut être pas mettre du droit d'auteur en tant que tel, mais les BDD ont un régime spécifique : Cette seconde protection spécifique sui generis a été instituée afin d'assurer une meilleure défense des investissements " substantiels " réalisés par les producteurs qui rassemblent, sélectionnent, organisent les données contenues dans une base mais dont l'action ne pouvait être protégée par le droit d'auteur.
De mémoire, ce qui est protégé c'est la compilation de ces données là, et le fait que Wikipédia ait des critères pour choisir ces articles admissible définit le périmètre de cette base, en quelque sorte. Ce qui est protégé c'est pas le fait en tant que tel mais d'avoir choisi précisément cette combinaison de faits là … genre les GR sont protégés parce que ça définit un choix de sentier qui définit une rando précisément choisie, me semble-t-il.
La loi prévoit que le producteur de bases de données a le droit d’interdire l’extraction ou la réutilisation par la mise à la disposition du public de la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu de sa base : on est pile dedans. On appréciera la formulation ultra souple qui fait que la part l'interprétation m'a l'air totalement gigantesque.
Après faudrait que quelqu'un ait l'idée de se plaindre dans la communauté … (vu comment certains ont une haute idée de la francophonie et sont pas très content de voir le côté de partage international sur Wikidata, c'est pas nécessairement totalement exclu celà dit …)
(j'ai raté la deadline pour modifier mon commentaire)
Un exemple de développement ambitieux pour Wikipédia autour de Wikidata : le module "course cyclistes" qui est développé sur le wiki de Wikidata en lua et déjà déployé sur plusieurs wikipédia pour gérer les résultats de courses cyclistes. Ça facilite la propagation des résultats vu que les éditeurs n'ont qu'à renseigner les infos sur Wikidata pour qu'elles apparaîssent sur les différentes éditions linguistiques de Wikipédia …
Ce n'est pas stocké en RDF en vrai - en tout cas sur le modèle d'édition, qui doit être du json (je crois). Le RDF c'est juste un format d'export généré à partir des données, et synchronisé avec le format de stockage et d'édition de Wikidata. Mais faire des requêtes SPARQL est très pratique et puissant : il existe déjà des tonnes de requêtes sur la page d'exemple
Le degré d'adoption est variable, les choses progressent constamment mais pas forcément extrêmement vite. La communauté francophone vient par exemple de prendre une décision concernant l'utilisation des données de Wikidata : (certaines personnes assez actives sont très hostiles aux déploiements massif par les robots, y compris d'infobox Wikidata - des déploiement massifs ont eu lieux et ça a entraîné de grosses polémiques communautaires qui ont abouti à ce résultat après au moins un an de tractations et de requêtes aux administrateurs …)
Mais il y a pleins de projets autour de Wikidata. cool wd pour la complétude des données wikicitesquid et reasonatorhistropedia pour faire des frises chronologique, de la génération de brouillon d'articles minimaux avec Wikidata (déjà déployé sur certaines petites Wikipédia avec ArticlePlaceholder exemple - du coup c'est marrant, je sais du tout dans quelle langue est écrite cette Wikipédia, mais je vois les infos en français avec ma config :) , mix'n'match pour faire la correspondance entre Wikidata et d'autre BDD et j'en passe …
Le chantier commons est relativement simple sur le papier : il s'agit de permettre de décrire les fichiers multimédia de Commons avec des données structurées et plus avec le fatra de templates et de catégorie existant : les données exif des photos, les choses décrites par les photos … et de permettre de réutiliser les entités et les propriétés Wikidata pour faire ça. À terme, ça permettra surement de retrouver un fichier commons avec SPARQL par exemple avec les critères qu'on veut. Il existe(ait?) déjà une version préliminaire : l'annonce (mais ça a l'air down).
Le chantier sur le wiktionnaire est dans la même veine : il s'agit de structure les informations sur les termes à la manière de Wikidata grâce à un modèle de données adapté - les propositions et la page du projet - et de pouvoir utiliser les propriétés Wikidata pour décrire le sens des mots par exemple, de lier un terme a ses variations lexicales, de stocker les synonymes de manière structurées … J'ai cru comprendre que la première étape serait la gestion des interwikis automatiques pour les termes qui s'écrivent de la même manière dans différentes langues. Bref, c'est très prometteur …
Le grand absent actuellement - mais c'est aussi en cours - est la génération automatique de liste à partir des données de Wikidata sur les wikis. Mais il existe quand même un robot de Magnus Manske qui fait le job. La communauté francophone n'aime pas trop par contre dans l'espace principal, ça fait polémique. D'un autre côté l'équipe de développement peine à savoir ce qu'elle (la communauté) veut sur ce plan, c'est un peu dommage.
Perso j'ai rien à dire d'intelligent sinon "bravo". J'ai bien l'intention d'acheter le bouquin, par contre ce serait cool d'en recevoir un autre pour le faire circuler autour de moi :)
Ah non, je suis désolé, j'ai déjà vu tiW troller sur « les contributeur.ice.s » mais jamais sur « les contributeur⋅ice⋅s ». À moins que ce ne soit « les contributeur-ice-s » ?
[^] # Re: spoil ?
Posté par thoasm . En réponse au journal Élections américaines. Évalué à 3.
Ah merde, je voulais répondre au commentaire de Larry au dessus. Oups.
[^] # Re: spoil ?
Posté par thoasm . En réponse au journal Élections américaines. Évalué à 0.
Ben le second degré c'est de dire l'inverse de ce qu'on veut dire. Du coup si tu dis des trucs sensés alors que tu penses des trucs débiles, ça ne change pas le fait que tu penses des trucs débiles. Et là c'est malsain parce que tu tentes d'embrouiller la galerie pour dire des saloperies sans en avoir l'air.
[^] # Re: Lémédia
Posté par thoasm . En réponse au journal Élections américaines. Évalué à 2.
Moui, je pense que beaucoup se souvenaient du referendum de Maastrich qui n'était pas passé comme sur des roulettes. Je suis loin d'être certain qu'ils aient pêché par excès d'optimisme. D'ailleurs nombreux sont ceux qui se méfient comme la peste des référendums.
[^] # Re: Lémédia
Posté par thoasm . En réponse au journal Élections américaines. Évalué à 1.
Ah bah j'ai rien contre eux alors, c'est juste un peu chiant de les forcer à aller se soigner avant qu'ils puent de la gueule.
[^] # Re: Lémédia
Posté par thoasm . En réponse au journal Élections américaines. Évalué à 1.
Je sais pas, c'est quoi ?
[^] # Re: Homme de paille
Posté par thoasm . En réponse au journal Mozilla: l'enjeu de 2017 est-il au niveau du navigateur web ?. Évalué à 7.
Il y a autre chose : c'est quand même une des organisations qui ont apporté et apportent encore du financement au libre pour ses valeurs intrinsèques en payant des développeurs.
Dans le monde des navigateurs on a plutôt vu Apple ou Google réutiliser du libre existant pour faire un navigateur qui soit bon techniquement. Puis intégrer leurs propres technos dedans (chrome) pour intégrer tout ça dans le web google. Mozilla leur a ouvert en quelque sorte la porte en militant pour un web interopérable depuis toujours, mais c'est sans doute la seule organisation à avoir cette approche - cf. par exemple google qui a il n'y a pas si longtemps fermé son réseau de messagerie instantané aux autres serveurs xmpp. Peut-être que Mozilla devrait (tenter de) faire ce qu'elle a déjà fait pour le web dans le domaine des communications et de la messageries d'ailleurs.
[^] # Re: Homme de paille
Posté par thoasm . En réponse au journal Mozilla: l'enjeu de 2017 est-il au niveau du navigateur web ?. Évalué à 4.
Ben, quand t'as une équipe et une expertise sur le navigateur et trucs à faire qui traînent depuis des lustres sur ta base de code, genre la parallélisation, avec un navigateur qui a désormais ses faiblesses mais qui tient pour autant la route, c'est dur de tout changer du jour au lendemain. Tu va perdre toute ton expertise, voire toutes les compétences de la structure.
J'ai un peu l'impression à la lecture de ton commentaire que tu demandes des trucs complètement contradictoires : tu veux l'écosystème solide du libre grâce à la diversité des acteurs tout en tenant absolument à l'un des acteurs. Tu "veux" détruire la culture corporate tout en tenant à la marque Mozilla - qui a adopté une structure et un coeur de métier en se concentrant sur un point précis.
On note que des gens comme Nitot semble être partis vers d'autres horizons, justement sans doute parce qu'ils sentent qu'il n'y a actuellement plus beaucoup de perspectives que du polissage des navigateurs (mais si on en croit la règle des 80/20 ça peut légèrement prendre du temps de "finir" un produit). Très bien pour eux, mais ça signifie pas que le reste de l'équipe Mozilla n'a pas envie de terminer le travail et n'a pas forcément l'énergie d'une reconversion totale à ce stade.
Bref, tu sembles avoir signé l'avis de décès de Mozilla en tant que structure. D'une part, c'est pas encore le cas, d'autre part, n'oublie pas l'équipe qui semble encore trouver la motivation pour travailler sur ce projet et l'aventure humaine autours. De ce point de vue là, la marque, on s'en contrefiche un peu.
En conclusion:
Mozilla est mort? Vive Mozilla !
[^] # Re: Franchement...
Posté par thoasm . En réponse au journal Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa. Évalué à 4.
Ben d'après l'article de Libé, il y a bel et bien un cas d'utilisation :
La Cnil n'est pas de ton avis en ce qui concerne l'implémentation :
Il s'agit bel et bien d'une implémentation, d'un point de vue sécurité des données, qui pose potentiellement bien plus de problème qu'un implémentation alternative. Il me semble assez sain de s'en inquiéter pour le citoyen.
[^] # Re: Franchement...
Posté par thoasm . En réponse au journal Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa. Évalué à 3.
Par ailleurs, ton raisonnement sur le fait que l'état possède déjà ces infos s'applique tout autant à mes exemples. C'est à dessein qu'on a rendu ces fichiers difficilement recoupable. C'est totalement différent de faire un énorme fichier centralisé que d'avoir chaque domaine de l'administration contrôler les données qui sont dans son périmètre.
Si c'est pour faciliter le croisement quand c'est pertinent, je préférerai largement un système d'autorisation à base d'un système de cryptage - genre si je veut autoriser la caf à savoir si j'ai droit à telle ou telle prestation, je me ramène avec ma clé privée à la caf et la guichetière interroge la sécu et valide avec ma clé privée. C'est un renversement total de perspective.
En gros tu te sers du fait que l'état est une seule et même entité pour justifier le fait qu'il n'y a pas de problème à centraliser les infos et à faire porter la responsabilité du croisement à des restrictions. C'est une approche qui se conteste. L'état a bel et bien différentes entités qui ont bel et bien des domaines différents. Une approche pyramidale ou le président aurait accès à toutes les données de chaque citoyen, ce qu'on obtient en poussant ton approche à l'extrême ? Moui, bof, il a déjà bien assez de pouvoir comme ça :)
[^] # Re: Franchement...
Posté par thoasm . En réponse au journal Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa. Évalué à 4.
Euh, justement, il n'y a pas besoin de recouper les infos si tout est déjà centralisé. Il y a besoin de recouper si elles sont dispersées. Si elles sont re-centralisées, c'est pour faciliter le recoupement, sans doute avec un cas d'utilisation précis en tête - c'est là ou je te trouve un poil naïf dans ton analyse en laissant supposer qu'il ne s'agit que d'un "détail d'implémentation" (parce qu'honnêtement à la base j'avais pas nécessairement l'intention de faire un scandale). Sinon c'est pas trop la peine de légiférer.
[^] # Re: Franchement...
Posté par thoasm . En réponse au journal Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa. Évalué à 6.
Euh non pas du tout. C'est une question de "separation of concerns" comme on dit en anglais pour la sécurité et d'autres bonnes pratique de génie logiciel : il est légitime que l'état civil ait accès à ton lieux de naissance, c'est son boulot, il est beaucoup moins légitime que la mairie, mettons la guichetière de la mairie, ait accès à ton dossier de santé, ou que ton médecin ait accès à ton dernier contrôle fiscal.
La question de qui a accès à quoi dans l'administration n'est pas du tout secondaire, et dans quelles conditions les données sont échangées si besoin est cruciale pour des raisons de protection de la vie privée du citoyen, car la raison d'être de l'état est … le citoyen. On est autant en droit de demander que l'état gère correctement nos données que de choisir ce qu'on publie sur facebook ou google+, et a qui. D'autant plus que si on est libre de pas s'inscrire sur facebook, on est inscrit à l'état civil à notre naissance.
[^] # Re: Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa
Posté par thoasm . En réponse au journal Comme d'habitude, l'UMP l'a voulu, le PS l'a fait, et vice versa. Évalué à 4.
Je surenchérirai : c'est relativement normal d'avoir les coudées franches pour dire ce qu'on veut dans l'opposition - liberté oblige - et de devoir se coltiner d'autres réalités une fois qu'on est au pouvoir. D'une certaine manière, ce simple effet peut expliquer une énorme partie de la convergence des politiques appliquées une fois qu'on est au pouvoir.
Je ne dis pas que ça explique tout, mais l'oublier est problématique. Corollaire : beaucoup d'initiatives de politiques alternatives finissent par tomber dans les même travers que les partis plus traditionnels.
[^] # Re: Internet Archive Archive
Posté par thoasm . En réponse au journal La fin des liens morts sur Wikipedia ?. Évalué à 2.
L'archivage sur des disquettes 5"1/4 ça va prendre un peu de place.
[^] # Re: Exemple d'infoboîte
Posté par thoasm . En réponse à la dépêche Wikidata fête ses 4 ans. Évalué à 3.
Non il y a eu des robots qui ont simplement inséré des infoboîtes sur des articles qui n'en avaient pas. Ce qui a posé problème semble-t-il avec ces déploiements c'est à la fois une certaine hostilité générale de certains (Wikidata projet global, ressenti comme complexe, projet externe à Wikipédia en français) et d'autre part la difficulté du fait de contrôler que les infos dans l'article correspondent bien exactement aux informations de l'infobox. Certains tiennent absolument à un contrôle manuel.
Le truc bête avec cette approche c'est que comme l'erreur éventuelle - ou parfois une "incohérence" due au fait que Wikidata est plus précise que Wikipédia sur un lieux ou vice-versa - finalement une information erronée de Wikipédia qu'un lecteur de passage pourrait remarquer et signaler en remarquant que l'infobox est contradictoire avec l'article risque de ne pas l'être - signalée - et de rester telle quelle sur Wikipédia plus longtemps que si on avait bêtement tout déployé puis ensuite cherché à consolider.
[^] # Re: Chatons & Image
Posté par thoasm . En réponse à la dépêche Ceci est un lancement de chatons. Évalué à 2.
Chat chais Schur.
# Des cadeaux par milliers !
Posté par thoasm . En réponse à la dépêche Wikidata fête ses 4 ans. Évalué à 9.
Bon d'accord, pas par milliers, mais des cadeaux quand même :
http://osdir.com/ml/general/2016-10/msg40849.html
Traduction du mail
[^] # Re: Licence
Posté par thoasm . En réponse à la dépêche Wikidata fête ses 4 ans. Évalué à 4.
Tu n'as pas l'air de connaître le droit des bases de données - une base de donnée ayant juridiquement une définition très très large … genre Une base de données se définit comme " un recueil d'œuvres, de données ou d'autres éléments indépendants, disposés de manière systématique ou méthodique, et individuellement accessibles par des moyens électroniques ou par tout autre moyen " conformément à l'article L. 112-3 du C.P.I. d'après http://www.caprioli-avocats.com/publications/43-propriete-intelectuelle/52-le-regime-juridique-des-bases-de-donnees
Ce qui fait que les infoboîtes sont potentiellement largement qualifiées. Donc on ne peut peut être pas mettre du droit d'auteur en tant que tel, mais les BDD ont un régime spécifique : Cette seconde protection spécifique sui generis a été instituée afin d'assurer une meilleure défense des investissements " substantiels " réalisés par les producteurs qui rassemblent, sélectionnent, organisent les données contenues dans une base mais dont l'action ne pouvait être protégée par le droit d'auteur.
De mémoire, ce qui est protégé c'est la compilation de ces données là, et le fait que Wikipédia ait des critères pour choisir ces articles admissible définit le périmètre de cette base, en quelque sorte. Ce qui est protégé c'est pas le fait en tant que tel mais d'avoir choisi précisément cette combinaison de faits là … genre les GR sont protégés parce que ça définit un choix de sentier qui définit une rando précisément choisie, me semble-t-il.
La loi prévoit que le producteur de bases de données a le droit d’interdire l’extraction ou la réutilisation par la mise à la disposition du public de la totalité ou d’une partie qualitativement ou quantitativement substantielle du contenu de sa base : on est pile dedans. On appréciera la formulation ultra souple qui fait que la part l'interprétation m'a l'air totalement gigantesque.
Après faudrait que quelqu'un ait l'idée de se plaindre dans la communauté … (vu comment certains ont une haute idée de la francophonie et sont pas très content de voir le côté de partage international sur Wikidata, c'est pas nécessairement totalement exclu celà dit …)
[^] # Exemple d'infoboîte
Posté par thoasm . En réponse à la dépêche Wikidata fête ses 4 ans. Évalué à 8.
(j'ai raté la deadline pour modifier mon commentaire)
Un exemple de développement ambitieux pour Wikipédia autour de Wikidata : le module "course cyclistes" qui est développé sur le wiki de Wikidata en lua et déjà déployé sur plusieurs wikipédia pour gérer les résultats de courses cyclistes. Ça facilite la propagation des résultats vu que les éditeurs n'ont qu'à renseigner les infos sur Wikidata pour qu'elles apparaîssent sur les différentes éditions linguistiques de Wikipédia …
[^] # Re: Plus de détails!
Posté par thoasm . En réponse à la dépêche Wikidata fête ses 4 ans. Évalué à 10.
Ce n'est pas stocké en RDF en vrai - en tout cas sur le modèle d'édition, qui doit être du json (je crois). Le RDF c'est juste un format d'export généré à partir des données, et synchronisé avec le format de stockage et d'édition de Wikidata. Mais faire des requêtes SPARQL est très pratique et puissant : il existe déjà des tonnes de requêtes sur la page d'exemple
Le degré d'adoption est variable, les choses progressent constamment mais pas forcément extrêmement vite. La communauté francophone vient par exemple de prendre une décision concernant l'utilisation des données de Wikidata : (certaines personnes assez actives sont très hostiles aux déploiements massif par les robots, y compris d'infobox Wikidata - des déploiement massifs ont eu lieux et ça a entraîné de grosses polémiques communautaires qui ont abouti à ce résultat après au moins un an de tractations et de requêtes aux administrateurs …)
Mais il y a pleins de projets autour de Wikidata. cool wd pour la complétude des données wikicite squid et reasonator histropedia pour faire des frises chronologique, de la génération de brouillon d'articles minimaux avec Wikidata (déjà déployé sur certaines petites Wikipédia avec ArticlePlaceholder exemple - du coup c'est marrant, je sais du tout dans quelle langue est écrite cette Wikipédia, mais je vois les infos en français avec ma config :) , mix'n'match pour faire la correspondance entre Wikidata et d'autre BDD et j'en passe …
Le chantier commons est relativement simple sur le papier : il s'agit de permettre de décrire les fichiers multimédia de Commons avec des données structurées et plus avec le fatra de templates et de catégorie existant : les données exif des photos, les choses décrites par les photos … et de permettre de réutiliser les entités et les propriétés Wikidata pour faire ça. À terme, ça permettra surement de retrouver un fichier commons avec SPARQL par exemple avec les critères qu'on veut. Il existe(ait?) déjà une version préliminaire : l'annonce (mais ça a l'air down).
Le chantier sur le wiktionnaire est dans la même veine : il s'agit de structure les informations sur les termes à la manière de Wikidata grâce à un modèle de données adapté - les propositions et la page du projet - et de pouvoir utiliser les propriétés Wikidata pour décrire le sens des mots par exemple, de lier un terme a ses variations lexicales, de stocker les synonymes de manière structurées … J'ai cru comprendre que la première étape serait la gestion des interwikis automatiques pour les termes qui s'écrivent de la même manière dans différentes langues. Bref, c'est très prometteur …
Le grand absent actuellement - mais c'est aussi en cours - est la génération automatique de liste à partir des données de Wikidata sur les wikis. Mais il existe quand même un robot de Magnus Manske qui fait le job. La communauté francophone n'aime pas trop par contre dans l'espace principal, ça fait polémique. D'un autre côté l'équipe de développement peine à savoir ce qu'elle (la communauté) veut sur ce plan, c'est un peu dommage.
[^] # Re: Ce serait pour offrir
Posté par thoasm . En réponse à la dépêche surveillance:// Entretien avec son auteur Tristan Nitot et 10 livres à gagner. Évalué à 1.
Euh, "je voudrez un livre s'il you plaît, c'est pour manger !"
# Ce serait pour offrir
Posté par thoasm . En réponse à la dépêche surveillance:// Entretien avec son auteur Tristan Nitot et 10 livres à gagner. Évalué à 0.
Perso j'ai rien à dire d'intelligent sinon "bravo". J'ai bien l'intention d'acheter le bouquin, par contre ce serait cool d'en recevoir un autre pour le faire circuler autour de moi :)
[^] # Re: Internet Archive Archive
Posté par thoasm . En réponse au journal La fin des liens morts sur Wikipedia ?. Évalué à 5.
Grâce à l'algorithme révolutionnaire IA*, ils s'archivent eux-même !
[^] # Re: Utilisation de "sévir"
Posté par thoasm . En réponse au journal La fin des liens morts sur Wikipedia ?. Évalué à 5. Dernière modification le 26 octobre 2016 à 17:31.
Ah non, je suis désolé, j'ai déjà vu tiW troller sur « les contributeur.ice.s » mais jamais sur « les contributeur⋅ice⋅s ». À moins que ce ne soit « les contributeur-ice-s » ?
[^] # Re: Typo
Posté par thoasm . En réponse à la dépêche KDE est vingtenaire. Évalué à 7.
et nous allons au bar !
[^] # Re: Francocentrisme ?
Posté par thoasm . En réponse à la dépêche Six nouveaux services chez Framasoft (30 au total). Évalué à 1.
En plus ça a l'air d'être un projet allemand, donc on risque pas de leur faire un procès en nationalisme américain :)