Textopol > Enseignement > Séminaire doctoral >

Programme des séances 2008 - 2009

 

 

  >>   Séance 4  
Informatique textuelleSéance 4, samedi 17 janvier 2009 à 9h30, CMC 227Plan de séance

9h30-10h- Brève présentation du colloque de la Selp, Université Paris-Est : 12-14 février 2009 : (http://infotext.free.fr/site)- Organisation de la séance du 4 avril : Tour de table10h-11h- Analyses de discours, lexicométrie, textométrie, logométrie, analyse de contenu assistée par ordinateur : autour du logiciel. - Présentation des fonctionnalités du logiciel d’analyse de contenu Tropes : Récupération de données, indexation de données textuelles, analyse du contenu  textuel. 11h15-12h30Prise en main de Tropes (version restreinte) à travers l’analyse du corpus des vœux de l’élection présidentielle 2007.13h30 - 16h Examen d’une recherche argumentative réalisée à l’aide de Tropes : Trébucq, Mots 2005Suite des travaux personnels

 

  >>   Séance 5  

Informatique textuelle

Séance 5, samedi 7 février 2009 CMC salle 342 

Cooccurrences dans les énoncés et mondes sémantiques, ALCESTE.

 

"L'UFR LLSH de Paris 12 est en grève depuis le 3 février. Nous serons, JML et moi, présents samedi en salle 342, mais dans notre cadre de l'Ecole doctorale LLSHSS, Je n'assumerai pas le cours théorique, mais j'encadrerai la prise en main du logiciel sur les travaux des participants".
 

 

  >>   Séance 1  
Séminaire Informatique textuelle  Samedi 25 octobre 2008 - Salle 227

9h30- 11h

1.       Objectifs et moyens du séminaire : Recherches textuelles informatisées appliquées au discours politique. Prises en main et expérimentation de logiciels ; exploration d’un corpus de textes politiques tirés de la campagne présidentielle 2007.

2.      Salles et espaces de travail ; accès et profils ; modes de travail, évaluation.

3.      Les outils de la recherche:

Le site Textopol : logiciels, base de données, forum, cours

Bases textuelles et moteurs de recherches : Google, Frantext et les autres

11h15-13h4.       Cours d’informatique textuelle (1) : Etiquetages, décomptes et exploitations statistiques : CORDIAL et LEXICO 3.Un exemple de traitements automatisés de discours politiques : La campagne présidentielle française 2007 et les vœux des candidats.

- Recueil

- Etiquetage morphosyntaxique

- Balisages lexicométriques

14h00-16h30

5. Exercices : Prises en main de lexico 3 : Corpus McCain-Obama

Documents

• Instructions pour le recueil et la constitution de corpus lexicométriques (pdf) (html) • Prise en main Lexico3Corpus

• Corpus disponibles sur la base Textopol : Vœux des candidats US 2008 et 2004 ; versions doc, txt, txt balisé maj et min.

 fiala@univ-paris12.fr

 

  >>   Séance 2  

Informatique textuelle

 

Séance 2, samedi 15 novembre 2008 à 9h30, CMC 227

Thème de la séance :

 

Fonctions documentaires et fonctions statistiques dans lexico3; typologies génériques. Hypothèse, corrélations et causalités interprétatives : la représentation des résultats

 

9h30-11h 

1. Fin de la prise main de Lexico3. Etapes 3-5

 

11h15-12h30

 

2. Quelques exemples de traitements multilogiciels et de représentations des résultats

 

13h30-16h30

  3. HYPERBASE : des fonctions lexicométrique analogues à celles de LEXICO3

4. Travail sur les corpus personnels.

 

Exercices

 

Exercice 2.1 : Traitement Hyperbase du corpus vœux présidentiels (PDF) (HTML)

 

Exercice 2.2 : Examiner la distribution des auxiliaires de modalité ( pouvoir, devoir, etc.) dans le corpus voeux (PDF) (HTML)

 

 

 

 

 

 

  >>   Séance 3  
 

Informatique textuelle
Séance 3, samedi 13 décembre 2008 à 9h30, CMC 342



Thème de la séance : Prise en main du logiciel Hyperbase. 

 Distance intertextuelle ; représentation des résultats

9h30-11h


1. Rappels

- Espaces de travail et profils ;
- Principes et objectifs du traitement informatisé discours: quantification, étiquetage
- L’approche textométrique Hyperbase



2. Prise en main d’HYPERBASE : traitement d’un corpus lexicométrique. Campagne présidentielles 2007. 

11h15-12h30


3. Cours de lexicométrie

-          La démarche lexicométrique ; hypothèses et variables ; constitution de corpus et partition ; tableau lexical complet et partiel ; propriétés statistiques vs propriétés linguistiques ; protocoles de description.

-          Résultats et interprétions : présentation et discussion de travaux récents utilisant HYPERBASE, les catégorisation de CORDIAL (Brunet, Mayaffre, 2004, 2007), les représentations de ASRTARTEX (Viprey)

-          http://www.revue-texto.net/index.php?id=585

-          http://www.revue-texto.net/index.php?id=645

 

14h-16h30

4. Traitement de la base catégorisée Vœux présidentiels HYPERBASE,

5. Travail sur les corpus personnels.

Documents:

   

• Exercice 1 : Traitement Hyperbase du corpus vœux dans la campagne présidentielle 2007
• Exercice 2 : Examiner la distribution des auxiliaires de modalité ( pouvoir, devoir, etc.)