Forum général.cherche-logiciel Outils modernes de dev, et éthique libriste : un dilemme ?

Posté par  (site web personnel) . Licence CC By‑SA.
5
29
avr.
2025

Bonjour,

Je vous écris avec un dilemme que j’aimerais soumettre à la sagacité de la communauté.

Dans le cadre de mon poste de responsable informatique pour une ASBL, je code occasionnellement de petites applications web — avec une approche plutôt "old school" : PHP, MySQL, JavaScript à la main, sans framework moderne. Tout notre environnement repose exclusivement sur des logiciels libres, autant par nécessité que par conviction (serveur, postes clients, formations, etc.).

Depuis peu, je m’intéresse aux technologies web modernes, et je suis tombé sur les vidéos de Melvynx, qui présente très bien des outils comme React, Next.js et autres TailwindCSS. C’est motivant, mais l’outil qu’il met en avant — Cursor — est propriétaire, centralisé, et payant. Comme beaucoup d’outils d’IA actuels (ChatGPT, Copilot, Claude, Gemini…).

D’où ma double question :

1°) Existe-t-il des alternatives réellement libres, auto-hébergeables et crédibles à ces outils ? (en particulier pour l’assistance au développement, la complétion de code, ou l’intégration IA dans les workflows)

2°) Plus largement, comment, en tant que libriste convaincu, peut-on naviguer éthiquement dans un paysage technologique où les avancées sont de plus en plus captives et centralisées ?

Je suis preneur de vos réflexions, retours d’expérience, et éventuelles pistes concrètes.
Merci d’avance !

PS: Devrais-je du faire plutôt un journal ?

  • # Journal

    Posté par  (Mastodon) . Évalué à 5 (+2/-0). Dernière modification le 29 avril 2025 à 20:43.

    D'habitude on réserve les questions pour les forums en effet, le journal étant plutôt là pour apporter de l'information.

    Mais cette réflexion globale peut être intéressante oui, et la question aura bcp plus de visibilité sous la forme d'un journal.

    En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

  • # Ollama

    Posté par  . Évalué à 4 (+3/-0).

    Si ton besoin est d'avoir un assistant IA basé sur un LLM, tu peux tout à fait utiliser Ollama (sous licence MIT) en local. De nombreux éditeurs avancés comme vim ou vscodium permettent de s'interfacer avec via des extensions. Tu peux choisir des modèles sous licences libres dans la biliothèque de modèles d'Ollama.

    • [^] # Re: Ollama

      Posté par  (site web personnel) . Évalué à 2 (+0/-0).

      Ha, ok, merci, je connaissais pas :)

      L’as-tu testé ?
      avec quel modèle ?
      Par exemple, pour avoir de l’aide en PHP et javaScript…

      • [^] # Re: Ollama

        Posté par  . Évalué à 1 (+0/-0).

        Oui je l'ai testé, c'est vraiment très simple à mettre en œuvre dans l'ensemble. Ollama fonctionne bien. Le choix du meilleur modèle est plus compliqué pour moi, j'en ai essayé plusieurs parmi les grands modèles connus (Llama, Deepseek, Gemma, Qwen…), globalement ils ont tous l'air de faire ce qu'on s'attend à voir avec un LLM : ça fait des trucs bien parfois et ça hallucine de temps en temps… Mes usages ne sont pas assez intensifs pour arriver à bien distinguer les différences de qualités entres les modèles les plus populaires.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.