Au pire tu n'es pas embauché, ok. Mais honnêtement dans le cadre des métiers de l'info, du boulot, tu en trouves (parfois merdique je te l'accorde) relativement facilement.
Dans le cas de métiers un peu différents (édition, etc), là les stagiaires sont réellement des employés au rabais surexploités (et comme le monde de l'édition est réellement minuscule, si on se fait mal voir, on est grillé pour un bon bout de temps de pas mal de maisons d'éditions par exemple).
Je me souviens que globalement, je me mettais tout seul la pression, et pas vraiment besoin d'un chef de projet pour en rajouter, merci. :) Avec le temps (et au bout du 3è stage, le dernier, celui qui dit que normalement t'es presqu'ingé), j'ai fini par comprendre que même en faisant miroiter un CDI derrière, quand l'ambiance n'y est pas, franchement, bien bosser, tout ça, rien à foutre. Je faisais mes heures (et j'essayais de bosser bien quand même hein, conscience professionnelle, tout ça), mais il était hors de question de rester jusqu'à pas d'heure [1].
Concernant les stages de pré-embauche, oui, je comprends qu'on veuille bosser bien pour être gardé ensuite, mais à la seule condition que ce soit sans repasser par une période d'essai juste derrière (ce qui transforme effectivement le stage en CDD d'un an à pas cher ...).
[1] Chose que j'avais faite dans les deux stages précédents, tout bêtement parce que le contenu était intéressant, et que l'ambiance des deux boites donnait l'impression de faire partie de l'équipe... Comme quoi ça tient à peu de chose, d'avoir un employ^Wstagiaire qui s'investit.
Hum. En 2005 j'étais payé le SMIC pour bosser en tant que stagiaire de fin d'études. Donc je pense que les stages de dernière année d'école d'ingé qui ne sont pas payés au moins le 1/3 du SMIC, c'est plus l'exception que la règle.
Pire que ça : mon école à l'époque pouvait refuser de valider un stage s'il n'y avait pas un minimum de rémunération correcte -- ben oui, ça joue aussi sur l'image de l'école, si ses élèves doivent se contenter de quémander n'importe quel stage fut-il non rémunéré...
Je suis d'accord, avec tout de même un petit bémol : en tant que stagiaire, tu n'as pas d'obligation de résultat. L'employeur n'est donc pas censé te soumettre au même rythme de travail qu'un employé lambda. Si tu mets deux fois plus de temps qu'un mec qui bosse dans la boite depuis plus d'un an, ce n'est pas censé poser de problème, car on n'est pas censé te donner de travail dont l'avenir de la boite dépend. :) (je dis bien « pas censé », je sais bien qu'en pratique, ça se fait parfaitement ...).
C'est marrant, les gens de l'ENS Lyon j'en connais un certain nombre aussi, et ils ne sont pas aussi élitistes que ceux que tu connais ... Comme quoi, ça dépend peut-être un peu des gens, non ? :)
(Après, il y a effectivement un certain nombre de personnes qui sont/sortent d'une ENS et qui ont une suffisance assez insupportable, je te l'accorde).
Tu as tout à fait raison, à une petite différence près: « Nature » avait écrit une sorte d'avertissement qui précédait l'article pour dire que c'était une recherche très controversée, et que tout le monde dans la rédaction n'était pas convaincue de la véracité de celle-ci.
« Effectivement, sur le web pas de ségrégation couleur de peau / sexe / gabarit de la personne. »
Bof. Y'a d'autres critères : un mec qui d'habitude a des « notes » positives va avoir le bénéfice du doute beaucoup plus longtemps que quelqu'un qui vient d'arriver. Je ne dis pas que ce n'est pas normal, mais du coup certaines opinions qui parfois pourraient être considérées comme « limite » seront plus facilement tolérées à cause de ça.
Et si le coup du « 1m90 90kg » IRL n'a pas de poids sur le net (et ne devrait pas en avoir en règle générale hein), je suis assez d'accord avec "kiki" sur le fait que certains se lâchent parce qu'ils ne se rendent plus compte qu'ils ont une personne « en face » d'eux.
Dans certaines applications intensives en calcul aussi, ça peut faire la différence. Du point de vue performances, s'il est possible de modifier les algos de calcul (analyse numérique en général, traitement d'image ou de signal, etc.) de façon à ce que des blocs de données soient utilisés le plus longtemps possible dans les caches, on va gagner en perf (vu que la mémoire cache est plus rapide que la RAM). Mais si à cause d'une trop grande fragmentation mémoire je me retrouve avec de la mémoire non-contiguë, ça finit par faire désordre [1].
Théoriquement, l'utilisation des « superpages » (ou « huge pages ») permet justement d'éviter des défauts de TLB, d'améliorer la façon dont les données sont mappées dans les sets des caches, etc., mais sous Linux, et particulièrement avec du x86 en tout cas, leur utilisation est plutôt difficile : sous x86 et x86-64 par exemple, les huge pages font 2 ou 4 Mio, ce qui est trop pour beaucoup d'applications. Mais si ce n'était que ça encore, ça irait. Le problème vient aussi du fait que pour utiliser ces grosses pages, il faut en gros les allouer au boot de la machine, juste au moment de l'init de Linux, qui va réserver ces pages au démarrage. La mémoire ainsi réservée est perdue pour les autres programmes. Et si j'avais besoin d'une grosse page de plus, ben tant pis (si je me souviens bien, la HugePageTLB des archis x86 est de 4 entrées, de toute manière ...).
Pour le coup, il y a un problème inhérent à l'archi actuelle des x86/x86_64, car une page physique fait obligatoirement 4kio. Sur d'autres architectures (Alpha, Itanium par ex), il existe plusieurs tailles possibles pour les pages mémoire, ce qui permet de limiter la fragmentation de la mémoire en fonction de l'utilisation faite de la machine [2].
[1] Ne pas me demander pourquoi, je suis encore en train d'essayer de piger. Pour simplifier, si je lance une appli de calcul intensif au boot d'une machine je vais avoir un certain temps d'exécution. Si je la relance après plusieurs heures, où entre temps j'ai joué avec Eclipse, Firefox, que sais-je (n'importe quoi qui fragmente bien la mémoire), si ensuite je lance mon appli de calcul qui fait un bon gros malloc/mmap au début, la mémoire réellement allouée va être fragmentée tout partout, et il y a un impact direct sur la performance.
[2] Bon OK, en pratique ça veut juste dire qu'on a des blocs de mémoire contiguë plus gros (par exemple sur Itanium 2, je crois que les distribs Red Hat ont mis 64kio par défaut pour une page normale, et 256 Mio pour une huge page). En même temps, quand on a dans les 1 à 4Gio de RAM comme c'est de plus en plus fréquent, on peut se permettre d'avoir des tailles de pages plus grosses ! Surtout si une grande partie de celle-ci sert de cache disque : ça n'enlèvera a priori rien aux perfs. Au contraire.
« Il [le programmeur C] utilise pour gérer tout cela des pointeurs vers la mémoire virtuelle de la machine, la RAM. »
La RAM, c'est la mémoire physique, pas la mémoire virtuelle. En fait le C ne sait pas ce qu'est que la RAM en elle-même, il a juste une notion de « mémoire ».
Ah et juste parce qu'il est encore vendredi quelque part dans le monde: le C est un langage de haut-niveau. O:-)
Euh non, NULL == 0 ou NULL == (void*)0, mais dans tous les cas NULL == 0, sinon dans le K&R, tous les cas de test de type if (!ptr) { ... } seraient à jeter.
Section 7.17 de la normel :
« NULL can be defined as any null pointer constant. Thus existing code can retain definitions of
NULL as 0 or 0L, but an implementation may also choose to define it as (void*)0. This latter
form of definition is convenient on architectures where sizeof(void*) does not equal the size
of any integer type. It has never been wise to use NULL in place of an arbitrary pointer as a
function 30 argument, however, since pointers to different types need not be the same size.
The library avoids this problem by providing special macros for the arguments to signal, the one
library function that might see a null function pointer. »
En pratique, POSIX demande que NULL == (void*)0 (désolé je n'ai pas le standard sous les yeux).
Concernant les FS, j'aimerais quand même signaler que le support de ext[234] dans les *BSD pose pas mal de problèmes (et pourtant là, il ne s'agit « que » de porter le FS, tout le reste est conforme POSIX).
La réciproque est aussi vraie : le support de FFS sous Linux est loin d'être parfait.
Bref, je trouve que pour le coup, aucun OS (Windows, Linux, *BSD, OS X) ne sort vraiment du lot concernant le support des FS des autres unices. Par contre, ce qui est fédérateur (à mon grand dam) c'est le support des FS de chez MS. Et c'est plutôt logique, vu que ce sont ceux utilisés par une écrasante majorité des utilisateurs -- donc ceux qu'on risque de trouver le plus sur des supports type clefs USB. Sur ce point je suis tout à fait d'accord avec pBpG.
Techniquement, du code mort non détecté peut empêcher le compilateur de
1/ Simplifier encore plus le code
2/ L'inliner parce que ces « quelques kio de plus » font que le code d'une méthode/fonction dépasse le seuil interne à partir duquel inliner est intéressant pour le compilo
3/ optimiser encore plus avant le code utile.
>> M' enfin, les compilateurs qui font de l' optimisation globale, il n' y en a pas beaucoup.
> Il y a au moins icc et llvm, pour java aucune idée. Mais dans tous les cas, il est beaucoup
> mieux de l'inclure dans le compilo.
Je sais pas pour LLVM, mais pour icc, si tu pensais à IPO (interprocess optimization), si ta base de code est un tant soit peu très grosse, les temps de compil' explosent avec un risque non-négligeable de « internal error » (plus de mémoire, /tmp plein, ou bien certaines limites internes atteintes). IPO est très bien pour des outils dont la base de code est de taille raisonnable. Il y a un autre inconvénient à IPO : les .o générés ne sont pas des .o standards, et c'est gênant pour interagir avec d'autres compilateurs quand on en a besoin.
Alors c'est simple, une macro LISP est évaluée deux fois, et tout étudiant ayant déjà fait du C et utilisé les macros du C pleure du sang pour s'en dépêtrer. :-)
Et ? Grosse callstack ? et après ? Si les fonctionnalités suivent, que le soft est suffisamment réactif pour les besoins de celui qui l'utilise, où est le problème ?
Il ne faut pas tout confondre : on peut étudier une oeuvre sans forcément vouloir disséquer la vie et les opinions de son auteur (exemple classique : Céline). Le racisme de Lovecraft est particulier (il suffit d'avoir lu quelques biographies à son sujet pour comprendre). Il y a clairement certaines nouvelles où ses accès de racisme apparaissent, mais on peut s'en passer.
Si je parlais de Card ou Simmons (ce n'étaient que des exemples hein), c'est entre autres pour le genre « anticipation » ou SF/Space opera. Quand on étudie Candide en Français, on n'étudie pas forcément au microscope la vie de Voltaire. En fait connaître la vie d'un auteur peut être intéressant pour pouvoir saisir plus de nuances dans une oeuvre, mais les 90% de celle-ci doivent être compréhensible par tout le monde (si on s'en donne la peine bien sûr). Ender's game est, de ce côté, très intéressant par exemple. Lovecraft aussi (et il a l'avantage de mêler un style assez classique avec des thèmes plutôt contemporains).
Oui enfin, tu sais ça dépend aussi de tes profs hein.
Il y a presque 15 ans, j'ai eu à lire la même année « Des souris et des hommes » (Steinbeck), « Le parfum » (Süskind), et « La dame de pique » (Pouchkine). Sur ces trois romans, deux sont clairement des romans (ou nouvelle dans le cas de la dame de pique) fantastiques. L'année précédente : « Peau d'âne » (Balzac), « La Vénus d'Isle » (Mérimée), et quelques autres. Là encore, deux histoires fantastiques.
Alors certes, ce n'est pas la SF de Asimov, ni le fantastique ou la fantasy que les auteurs plus ou moins contemporains écrivent; mais il s'agit tout de même des racines du genre fantastique (tout comme Verne préfigure la SF à bien des niveaux). En fait, le fantastique est un des thèmes qui doit être abordé au collège (en 4è/3è).
Le problème vient surtout du fait qu'il faut faire des choix. Mais soyons bien clairs : les auteurs étudiés au collège et au lycée le sont parce qu'ils ont survécu à l'épreuve du temps. Barjavel est bien donné à lire à certains étudiants. RR Martin tu ne le trouveras pas à mon sens. Par contre, je prédis qu'un Orson Scott Card (Ender's Game) ou qu'un Dan Simmons (Hyperion & co) seront un jour étudiés, car il n'y a pas simplement une bonne histoire et de bons personnages, mais aussi un style caractéristique, une narration qui est propre à chaque auteur. J'aime beaucoup le cycle des princes d'Ambre par exemple, et notamment le premier livre qui est un parfait exemple de ce qu'on appelle un roman fantastique en littérature plus classique (i.e. qui commence comme une histoire « normale » et qui à un moment du récit bascule dans le fantastique), mais je ne suis pas certain qu'on puisse l'étudier correctement en classe. Je peux bien sûr me tromper.
Oui enfin mettre sur le même plan un besoin naturel vital et nécessaire à la survie d'un être humain, et un logiciel et ses sources, c'est un peu douteux ...
Ben j'allais voir des gens bizarres à l'occasion d'un workshop, et ça se passait dans l'université du Delaware. J'ai pu observer le comportement des profs qui ont une tenure et qui sont en rut dans les bars d'étudiants. C'était euh. Intéressant.
[^] # Re: Un stage n'est pas un emploi faiblement rémunéré...
Posté par lasher . En réponse au journal Canonical cherche des esclaves^W stagiaires pour travailler sur Ubuntu. Évalué à 2.
Dans le cas de métiers un peu différents (édition, etc), là les stagiaires sont réellement des employés au rabais surexploités (et comme le monde de l'édition est réellement minuscule, si on se fait mal voir, on est grillé pour un bon bout de temps de pas mal de maisons d'éditions par exemple).
Je me souviens que globalement, je me mettais tout seul la pression, et pas vraiment besoin d'un chef de projet pour en rajouter, merci. :) Avec le temps (et au bout du 3è stage, le dernier, celui qui dit que normalement t'es presqu'ingé), j'ai fini par comprendre que même en faisant miroiter un CDI derrière, quand l'ambiance n'y est pas, franchement, bien bosser, tout ça, rien à foutre. Je faisais mes heures (et j'essayais de bosser bien quand même hein, conscience professionnelle, tout ça), mais il était hors de question de rester jusqu'à pas d'heure [1].
Concernant les stages de pré-embauche, oui, je comprends qu'on veuille bosser bien pour être gardé ensuite, mais à la seule condition que ce soit sans repasser par une période d'essai juste derrière (ce qui transforme effectivement le stage en CDD d'un an à pas cher ...).
[1] Chose que j'avais faite dans les deux stages précédents, tout bêtement parce que le contenu était intéressant, et que l'ambiance des deux boites donnait l'impression de faire partie de l'équipe... Comme quoi ça tient à peu de chose, d'avoir un employ^Wstagiaire qui s'investit.
[^] # Re: Ce n'est pas étonnant
Posté par lasher . En réponse au journal Canonical cherche des esclaves^W stagiaires pour travailler sur Ubuntu. Évalué à 2.
Pire que ça : mon école à l'époque pouvait refuser de valider un stage s'il n'y avait pas un minimum de rémunération correcte -- ben oui, ça joue aussi sur l'image de l'école, si ses élèves doivent se contenter de quémander n'importe quel stage fut-il non rémunéré...
[^] # Re: Un stage n'est pas un emploi faiblement rémunéré...
Posté par lasher . En réponse au journal Canonical cherche des esclaves^W stagiaires pour travailler sur Ubuntu. Évalué à 3.
[^] # Re: D'autres gros ajouts
Posté par lasher . En réponse à la dépêche C++ 0xB enfin finalisé ?. Évalué à 2.
[^] # Re: à coté de la plaque
Posté par lasher . En réponse à la dépêche Une enquête par questionnaire sur la communauté du Logiciel Libre. Évalué à 3.
(Après, il y a effectivement un certain nombre de personnes qui sont/sortent d'une ENS et qui ont une suffisance assez insupportable, je te l'accorde).
[^] # Re: Super article
Posté par lasher . En réponse à la dépêche Nouvelle version 2.6.33 du noyau Linux. Évalué à 2.
[^] # Re: n'est plus néophite qui ...
Posté par lasher . En réponse à la dépêche Linux aux petits oignons : texte intégral gratuit en ligne. Évalué à 6.
Bof. Y'a d'autres critères : un mec qui d'habitude a des « notes » positives va avoir le bénéfice du doute beaucoup plus longtemps que quelqu'un qui vient d'arriver. Je ne dis pas que ce n'est pas normal, mais du coup certaines opinions qui parfois pourraient être considérées comme « limite » seront plus facilement tolérées à cause de ça.
Et si le coup du « 1m90 90kg » IRL n'a pas de poids sur le net (et ne devrait pas en avoir en règle générale hein), je suis assez d'accord avec "kiki" sur le fait que certains se lâchent parce qu'ils ne se rendent plus compte qu'ils ont une personne « en face » d'eux.
[^] # Re: Juste une question
Posté par lasher . En réponse à la dépêche Nouvelle version 2.6.33 du noyau Linux. Évalué à 7.
Théoriquement, l'utilisation des « superpages » (ou « huge pages ») permet justement d'éviter des défauts de TLB, d'améliorer la façon dont les données sont mappées dans les sets des caches, etc., mais sous Linux, et particulièrement avec du x86 en tout cas, leur utilisation est plutôt difficile : sous x86 et x86-64 par exemple, les huge pages font 2 ou 4 Mio, ce qui est trop pour beaucoup d'applications. Mais si ce n'était que ça encore, ça irait. Le problème vient aussi du fait que pour utiliser ces grosses pages, il faut en gros les allouer au boot de la machine, juste au moment de l'init de Linux, qui va réserver ces pages au démarrage. La mémoire ainsi réservée est perdue pour les autres programmes. Et si j'avais besoin d'une grosse page de plus, ben tant pis (si je me souviens bien, la HugePageTLB des archis x86 est de 4 entrées, de toute manière ...).
Pour le coup, il y a un problème inhérent à l'archi actuelle des x86/x86_64, car une page physique fait obligatoirement 4kio. Sur d'autres architectures (Alpha, Itanium par ex), il existe plusieurs tailles possibles pour les pages mémoire, ce qui permet de limiter la fragmentation de la mémoire en fonction de l'utilisation faite de la machine [2].
[1] Ne pas me demander pourquoi, je suis encore en train d'essayer de piger. Pour simplifier, si je lance une appli de calcul intensif au boot d'une machine je vais avoir un certain temps d'exécution. Si je la relance après plusieurs heures, où entre temps j'ai joué avec Eclipse, Firefox, que sais-je (n'importe quoi qui fragmente bien la mémoire), si ensuite je lance mon appli de calcul qui fait un bon gros malloc/mmap au début, la mémoire réellement allouée va être fragmentée tout partout, et il y a un impact direct sur la performance.
[2] Bon OK, en pratique ça veut juste dire qu'on a des blocs de mémoire contiguë plus gros (par exemple sur Itanium 2, je crois que les distribs Red Hat ont mis 64kio par défaut pour une page normale, et 256 Mio pour une huge page). En même temps, quand on a dans les 1 à 4Gio de RAM comme c'est de plus en plus fréquent, on peut se permettre d'avoir des tailles de pages plus grosses ! Surtout si une grande partie de celle-ci sert de cache disque : ça n'enlèvera a priori rien aux perfs. Au contraire.
# Petite précision.
Posté par lasher . En réponse au journal Un autre type de faille locale. Évalué à 5.
« Il [le programmeur C] utilise pour gérer tout cela des pointeurs vers la mémoire virtuelle de la machine, la RAM. »
La RAM, c'est la mémoire physique, pas la mémoire virtuelle. En fait le C ne sait pas ce qu'est que la RAM en elle-même, il a juste une notion de « mémoire ».
Ah et juste parce qu'il est encore vendredi quelque part dans le monde: le C est un langage de haut-niveau. O:-)
[^] # Re: Et pour ceux qui n'y connaissent rien...
Posté par lasher . En réponse au journal Un autre type de faille locale. Évalué à 1.
Section 7.17 de la normel :
« NULL can be defined as any null pointer constant. Thus existing code can retain definitions of
NULL as 0 or 0L, but an implementation may also choose to define it as (void*)0. This latter
form of definition is convenient on architectures where sizeof(void*) does not equal the size
of any integer type. It has never been wise to use NULL in place of an arbitrary pointer as a
function 30 argument, however, since pointers to different types need not be the same size.
The library avoids this problem by providing special macros for the arguments to signal, the one
library function that might see a null function pointer. »
En pratique, POSIX demande que NULL == (void*)0 (désolé je n'ai pas le standard sous les yeux).
[^] # Re: C'est absolument vrai
Posté par lasher . En réponse au journal Teuheu, Teuheu, Teuheu (tousse fort). Évalué à 4.
La réciproque est aussi vraie : le support de FFS sous Linux est loin d'être parfait.
Bref, je trouve que pour le coup, aucun OS (Windows, Linux, *BSD, OS X) ne sort vraiment du lot concernant le support des FS des autres unices. Par contre, ce qui est fédérateur (à mon grand dam) c'est le support des FS de chez MS. Et c'est plutôt logique, vu que ce sont ceux utilisés par une écrasante majorité des utilisateurs -- donc ceux qu'on risque de trouver le plus sur des supports type clefs USB. Sur ce point je suis tout à fait d'accord avec pBpG.
[^] # Re: La nuit du code mort vivant
Posté par lasher . En réponse au journal Des outils d'audit de code Java. Évalué à 3.
1/ Simplifier encore plus le code
2/ L'inliner parce que ces « quelques kio de plus » font que le code d'une méthode/fonction dépasse le seuil interne à partir duquel inliner est intéressant pour le compilo
3/ optimiser encore plus avant le code utile.
[^] # Re: Le compilateur ne fait pas ça ?
Posté par lasher . En réponse au journal Des outils d'audit de code Java. Évalué à 2.
> Il y a au moins icc et llvm, pour java aucune idée. Mais dans tous les cas, il est beaucoup
> mieux de l'inclure dans le compilo.
Je sais pas pour LLVM, mais pour icc, si tu pensais à IPO (interprocess optimization), si ta base de code est un tant soit peu très grosse, les temps de compil' explosent avec un risque non-négligeable de « internal error » (plus de mémoire, /tmp plein, ou bien certaines limites internes atteintes). IPO est très bien pour des outils dont la base de code est de taille raisonnable. Il y a un autre inconvénient à IPO : les .o générés ne sont pas des .o standards, et c'est gênant pour interagir avec d'autres compilateurs quand on en a besoin.
[^] # Re: Ummon parlant d'IA...
Posté par lasher . En réponse au journal Compétition d'IA. Évalué à 3.
[^] # Re: J'ai pas compris
Posté par lasher . En réponse au journal Un programme d'échecs opensource qui fait du bruit. Évalué à 3.
[^] # Re: Ca me fait doucement rire ....
Posté par lasher . En réponse au journal Terracotta monte les JVM en grappe. Évalué à 3.
(Sinon LISP c'est bien pour de vrai)
[^] # Re: Une image vaut mieux que tout un discours
Posté par lasher . En réponse au journal JASMINe à la rescousse des architectes JavaEE. Évalué à 10.
[^] # Re: Bien fait!
Posté par lasher . En réponse au journal Un sandwich, un cinéma, puis le poste de police.. Évalué à 3.
Si je parlais de Card ou Simmons (ce n'étaient que des exemples hein), c'est entre autres pour le genre « anticipation » ou SF/Space opera. Quand on étudie Candide en Français, on n'étudie pas forcément au microscope la vie de Voltaire. En fait connaître la vie d'un auteur peut être intéressant pour pouvoir saisir plus de nuances dans une oeuvre, mais les 90% de celle-ci doivent être compréhensible par tout le monde (si on s'en donne la peine bien sûr). Ender's game est, de ce côté, très intéressant par exemple. Lovecraft aussi (et il a l'avantage de mêler un style assez classique avec des thèmes plutôt contemporains).
[^] # Re: Bien fait!
Posté par lasher . En réponse au journal Un sandwich, un cinéma, puis le poste de police.. Évalué à 3.
Il y a presque 15 ans, j'ai eu à lire la même année « Des souris et des hommes » (Steinbeck), « Le parfum » (Süskind), et « La dame de pique » (Pouchkine). Sur ces trois romans, deux sont clairement des romans (ou nouvelle dans le cas de la dame de pique) fantastiques. L'année précédente : « Peau d'âne » (Balzac), « La Vénus d'Isle » (Mérimée), et quelques autres. Là encore, deux histoires fantastiques.
Alors certes, ce n'est pas la SF de Asimov, ni le fantastique ou la fantasy que les auteurs plus ou moins contemporains écrivent; mais il s'agit tout de même des racines du genre fantastique (tout comme Verne préfigure la SF à bien des niveaux). En fait, le fantastique est un des thèmes qui doit être abordé au collège (en 4è/3è).
Le problème vient surtout du fait qu'il faut faire des choix. Mais soyons bien clairs : les auteurs étudiés au collège et au lycée le sont parce qu'ils ont survécu à l'épreuve du temps. Barjavel est bien donné à lire à certains étudiants. RR Martin tu ne le trouveras pas à mon sens. Par contre, je prédis qu'un Orson Scott Card (Ender's Game) ou qu'un Dan Simmons (Hyperion & co) seront un jour étudiés, car il n'y a pas simplement une bonne histoire et de bons personnages, mais aussi un style caractéristique, une narration qui est propre à chaque auteur. J'aime beaucoup le cycle des princes d'Ambre par exemple, et notamment le premier livre qui est un parfait exemple de ce qu'on appelle un roman fantastique en littérature plus classique (i.e. qui commence comme une histoire « normale » et qui à un moment du récit bascule dans le fantastique), mais je ne suis pas certain qu'on puisse l'étudier correctement en classe. Je peux bien sûr me tromper.
[^] # Re: Sources ?
Posté par lasher . En réponse au journal Un sandwich, un cinéma, puis le poste de police.. Évalué à 5.
[^] # Re: Detail un peu plus
Posté par lasher . En réponse au journal Firefox va faire un bon en avant.. Évalué à 3.
[^] # Re: comme pour la musique
Posté par lasher . En réponse au journal Apple + Book, les emmerdes commencent.... Évalué à 2.
[^] # Re: 12 ou 13$ ???
Posté par lasher . En réponse au journal Apple + Book, les emmerdes commencent.... Évalué à 2.
[^] # Re: 12 ou 13$ ???
Posté par lasher . En réponse au journal Apple + Book, les emmerdes commencent.... Évalué à 2.
[^] # Re: 12 ou 13$ ???
Posté par lasher . En réponse au journal Apple + Book, les emmerdes commencent.... Évalué à 2.