Bonjour,
Dans le cadre d'un (petit) projet pour les cours je doit réaliser un programme en C qui soit capable de lire le code source d'une page web, puis de récupérer dans ce code source des informations qui nous intéressent (genre la température qu'il fera demain sur le site de météo france).
Je suis donc partis à la recherche d'une librairie qui pourrai m'aider à réaliser cela, et j'ai trouvé libcurl :http://curl.haxx.se/libcurl/
Déjà, première question : est ce que libcurl vous semble pertinente pour réaliser ce projet ou bien est ce vous connaissez mieux ?
Les autres questions viendrons plus tard...en fonctions de vos réponses :-)
Je tiens à préciser que je suis un débutant complet en C et en programmation(d'ailleurs le but du projet c'est de partir de 0 et de s'amuser un peu, je ne suis pas dans une formation en informatique).
# libcurl
Posté par ragoutoutou . Évalué à 5.
une librairie permettant de gérer ce problème à un haut niveau est préférable, ça évite de devoir redévelopper par la suite des éléments tels que le support de proxy, la gestion des sessions, le ssl... et ça permet de se concentrer sur les traitements de l'info...
# libsoup
Posté par Cheneson Cyril . Évalué à 1.
http://www.linuxfromscratch.org/blfs/view/stable/basicnet/li(...)
Et une ptite demo pour voir comment ca marche:
http://forgeftp.novell.com/lu4d/lu4d_ldad_libsoup.htm
@++
Cyril
# Bon...
Posté par Agrou (site web personnel) . Évalué à 2.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.