Accueil🇫🇷Chercher

Linguistique quantitative

La linguistique quantitative est une sous-discipline de la linguistique générale et, plus spécifiquement, de la linguistique mathématique. La linguistique quantitative traite de l'apprentissage des langues, de leur évolution et de leur application, ainsi que de la structure des langues naturelles. Elle étudie les langues à l'aide de méthodes statistiques, mais aussi d’autres champs mathématiques[1] Son objectif le plus exigeant est la formulation de lois linguistiques et, finalement, d’une théorie générale du langage, c'est-à-dire d’un ensemble de lois langagières interdépendantes[2]. La linguistique synergétique (la synergie étant une approche transdisciplinaire) a été dès son origine spécialement conçue à cet effet[3]. La linguistique quantitative est fondée sur les résultats des statistiques du langage ou d'objets linguistiques. Ce domaine n'est pas nécessairement lié à des ambitions théoriques substantielles. La linguistique de corpus et la linguistique informatique sont en rapport avec la linguistique quantitative. Elle recouvre toutes les méthodes mathématiques appliquées en linguistique. Comme pour toutes les études transdisciplinaires, le rapport entre mathématiques et linguistiques (quelle que soit l'étude) est une difficulté. Faits initialement par des ingénieurs, mathématiciens etc, ces liens intéressent aussi les linguistes aujourd'hui.

Histoire

Les premières approches de la linguistique quantitative remontent au monde grec et indien antiques. L' une des sources historiques se compose d'applications de combinatoires à des questions linguistiques[4]. Une autre est fondée sur des études statistiques élémentaires. La sténographie et la cryptographie sont les premiers domaines linguistiques à avoir une approche quantitative. Les cryptographes ont ainsi établi des tables de fréquence de lettres, et le sténographe Jean-Baptiste Estoup fut le premier à calculer les fréquences relatives de mots dans un texte[1].

Lois de la langue

En linguistique quantitative, le concept de loi désigne un système de lois déduites d'hypothèses théoriques, formulées mathématiquement, et validées par une démarche scientifique : elles doivent subir de nombreuses expériences et "résister" à toutes les réfutations possibles. Köhler écrit à propos de ces lois : "En outre, il peut être démontré que ces propriétés des éléments linguistiques et des relations entre elles sont conformes à des lois universelles qui peuvent être formulées strictement de manière mathématique, de la même manière qu’elles sont communes dans les sciences naturelles. Rappelez-vous que ces lois sont de nature stochastique [aléatoires, pouvant être bouleversées] et qu'elles ne sont pas observées dans tous les cas (cela ne serait ni nécessaire ni possible), mais plutôt qu'elles déterminent les probabilités des événements ou les proportions étudiées. Il est facile de trouver des contre-exemples. Toutefois, ces cas ne violent pas les lois correspondantes, car les variations autour de la moyenne statistique sont non seulement admissibles mais même essentielles, elles sont elles-mêmes déterminées quantitativement avec exactitude par les lois correspondantes. La situation est identique à celle des sciences naturelles, qui ont depuis longtemps abandonné les anciennes conceptions déterministe et causale du monde pour les remplacer par des modèles probabilistes. " [5]

Quelques lois linguistiques

Etude quantitative réalisée par la linguiste Kordić : les pronoms personnels en serbo-croate

Il existe un grand nombre de lois linguistiques proposées, parmi lesquelles[6] :

  • diversification : si des catĂ©gories linguistiques telles que des parties du discours ou des terminaisons flexionnelles (une flexion Ă©tant une variation d'un radical, ex. conjugaison, dĂ©clinaison) apparaissent sous diffĂ©rentes formes, on peut montrer que les frĂ©quences de leur occurrence dans les textes sont contrĂ´lĂ©es par des lois ;
  • distributions de longueur (ou plus gĂ©nĂ©ralement de complexitĂ©) : l’enquĂŞte de frĂ©quences de textes ou de dictionnaires d’unitĂ©s de tout genre en ce qui concerne leur longueur produit rĂ©gulièrement un certain nombre de distributions, en fonction du type donnĂ© de l’unitĂ© Ă  l’étude. Ă€ ce jour, les distributions suivantes ont Ă©tĂ© Ă©tudiĂ©es:
    • longueurs de morphèmes (unitĂ©s de sens)
    • longueurs des unitĂ©s rythmiques ;
    • rĂ©partition des durĂ©es des phrases ;
    • longueurs syllabiques ;
    • longueurs de mots ;

Cette loi s'applique Ă  d'autres unitĂ©s : les lettres ou caractères de complexitĂ© diffĂ©rentes, par exemple. Il en va de mĂŞme pour les distributions de sons (phonèmes, unitĂ© de son) de diffĂ©rentes durĂ©es.

  • Loi de Martin. Elle concerne les chaĂ®nes lexicales obtenues en cherchant la dĂ©finition d'un mot dans un dictionnaire, puis en cherchant la dĂ©finition de la dĂ©finition que l'on vient d'obtenir, etc. Enfin, toutes ces dĂ©finitions forment une hiĂ©rarchie de significations de plus en plus gĂ©nĂ©rales, de sorte que le nombre de dĂ©finitions diminue avec la gĂ©nĂ©ralitĂ© croissante. Parmi les niveaux de ce type de hiĂ©rarchie, il existe des lois liĂ©es Ă  cette relation.
  • Loi de Menzerath (ou loi Menzerath-Altmann). Elle stipule que la taille des composants (mots, syllabes…) d'une construction (phrase, mot…) est inversement proportionnelle Ă  la taille de la construction Ă©tudiĂ©e. Ainsi, plus une phrase est longue (par exemple, en termes de nombre de clauses), plus les clauses sont courtes (en termes de nombre de mots), ou bien plus un mot est long (en syllabes ou morphes) moins les syllabes comptent de sons.
  • Lois de la frĂ©quence de rang. Pratiquement n'importe quel type d'unitĂ© linguistique respecte ces relations. Les mots d'un texte sont classĂ©s selon leur frĂ©quence et se voient attribuer un numĂ©ro de classement et la frĂ©quence correspondante. Depuis George Kingsley Zipf (auteur de la «loi de Zipf»), un grand nombre de modèles mathĂ©matiques de la relation entre rang et frĂ©quence ont Ă©tĂ© proposĂ©s comme : des sons, phonèmes et lettres, des associations avec lesquelles les sujets rĂ©agissent sur un stimulus (mot)[7].
  • Loi du changement de langue. Elle concerne les processus de croissance dans la langue, tels que la croissance du vocabulaire, la dispersion de mots Ă©trangers ou d'emprunts, les modifications du paradigme, etc. La loi de Piotrowski est un cas du modèle dit logistique (cf. Ă©quation logistique). Elle concerne Ă©galement les processus d’acquisition du langage (cf. loi sur l’acquisition du langage).
  • Loi sur les blocs de texte. Les unitĂ©s linguistiques (mots, lettres, fonctions syntaxiques et constructions, par exemple) montrent une distribution de frĂ©quence spĂ©cifique dans des blocs de texte de taille Ă©gale.
Une application de la loi de Zipf : fréquence des mots en fonction du rang dans la version originale d'Ulysse de James Joyce.

Linguistique et théorie de l'information

La théorie de l'information découle de la statistique en linguistique. Théorisée par Claude Shannon, elle quantifie les informations d'un ensemble de message grâce au codage informatique suivant des lois de probabilités. Née après la Seconde Guerre mondiale, elle est appliquée aux téléphones pour réduire le coût de transport d'informations. Elle propose un modèle général de la communication utilisé en linguistique, où le bruit désigne ce qui perturbe l'émission du message (par exemple longue distance, inattention, bruit dans le sens courant).

Chaine de transmission

Pour illustrer ce modèle, l'émetteur peut être un locuteur, un appareil de radio, le canal l'air, la ligne téléphonique. Ainsi, le linguiste Roman Jakobson utilise ce modèle pour définir six fonctions du langage, qui varient selon les paramètres de ce modèle (c'est-à-dire du canal, de l'émetteur, du message). Chaque unité linguistique (par exemple, lettre, phonème) est codée ; un lien est fait entre unité du message et unité du code. Réduire le coût d'émission revient donc à réduire le nombre de liens. Ce dernier dépend du nombre d'unités, mais aussi de la fréquence d'apparition de celles-ci : ainsi, une unité se caractérise par sa fréquence d'apparition. Cela suppose un calcul de la fréquence d'éléments linguistiques ; en cela c'est une application directe de la statistique. L'information apportée par une unité est inversement proportionnelle à sa fréquence (intuitivement, on peut se dire qu'une unité rare apporte de l'information). La redondance désigne un signe n'apportant aucune information donc dont la probabilité vaut 1. Un système non redondant ne contient pas de telles unités :

Système redondantSystème non redondant
Contenant des unités sans informationNe contenant pas d'unités sans information
Exemples : combinaison de son ou système alphabétiqueExemple : système numérique
Application : "j'pr'l'tr'"="je prends le train", "peux venir demain"="je pourrai venir demain"Application : "82,7"≠"823,74"

L'étude de la redondance s'étend à tous les éléments linguistiques ; elle a une valeur pratique (économie de l'information, élimination d'informations superflues) ou artistique (notamment en poésie)[1].

Stylistique

L’étude des styles aussi bien poétiques que non poétiques peut se fonder sur des méthodes statistiques ; de plus, il est possible de mener des recherches correspondantes sur la base de formes spécifiques (paramètres) que les lois linguistiques prennent dans des textes de styles différents. Dans de tels cas, la linguistique quantitative soutient la recherche en stylistique : l’un des objectifs généraux est de proposer des preuves aussi objectives que possible, y compris dans au moins une partie du domaine des phénomènes stylistiques, en faisant référence aux lois de la langue. L'une des hypothèses centrales de la linguistique quantitative est que certaines lois (par exemple, la distribution des longueurs de mots) nécessitent des modèles différents, au moins des valeurs de paramètre différentes des lois (distributions ou fonctions) selon le type d'un texte. Dans l'étude de poèmes, les méthodes quantitatives en linguistique forment une sous-discipline de l’étude quantitative de la littérature (stylométrie)[8].

Linguistique et logique

Avec la logique s'intéressant à l'articulation de la pensée, et le langage l'exprimant, il existe un lien entre linguistique et logique (comme le reflète l'analyse logique). L'utilisation de la logique justifiant la prescription ne relève cependant pas de la linguistique). Les notions d'inférence ou de transitivité s'appliquent en linguistique et en logique. Un énoncé logique est parfois limité par des imprécisions linguistiques : ainsi, la nature exacte de la coordination par la conjonction "et" est un problème sémantique, ainsi que la transitivité entre un élément et sa classe. Cette dernière incertitude est fondée sur des ambiguïtés logiques : soit, par exemple, les propositions "un chat est un animal" et "un éléphant est un animal". Peut-on inférer qu"un petit chat est un petit animal"? Et qu'"un petit éléphant est un petit animal"[1] ?

Linguistes dans ce domaine

Voir aussi


Notes

  1. « linguistique quantitative », sur fracademic.com, (consulté le )
  2. Reinhard Köhler: Gegenstand und Arbeitsweise der Quantitativen Linguistik. In: Reinhard Köhler, Gabriel Altmann, Rajmund G. Piotrowski (Hrsg.): Quantitative Linguistik - Quantitative Linguistics. Ein internationales Handbuch. de Gruyter, Berlin/ New York 2005, pp. 1–16.
  3. Reinhard Köhler: Synergetic linguistics. In: Reinhard Köhler, Gabriel Altmann, Rajmund G. Piotrowski (Hrsg.): Quantitative Linguistik - Quantitative Linguistics. Ein internationales Handbuch. de Gruyter, Berlin/ New York 2005, pp. 760–774. (ISBN 3-11-015578-8).
  4. N.L. Biggs: The Roots of Combinatorics. In: Historia Mathematica 6, 1979, pp. 109–136.
  5. cf. note 1, pp. 1–2.
  6. cf. references: Köhler, Altmann, Piotrowski (eds.) (2005)
  7. H. Guiter, M. V. Arapov (eds.): Studies on Zipf's Law. Bochum: Brockmeyer 1982. (ISBN 3-88339-244-8).
  8. Alexander Mehler: Eigenschaften der textuellen Einheiten und Systeme. In: Reinhard Köhler, Gabriel Altmann, Rajmund G. Piotrowski (Hrsg.): Quantitative Linguistik - Quantitative Linguistics. Ein internationales Handbuch. de Gruyter, Berlin/ New York 2005, p. 325-348, esp. Quantitative Stilistik, pp. 339–340. (ISBN 3-11-015578-8); Vivien Altmann, Gabriel Altmann: Anleitung zu quantitativen Textanalysen. Methoden und Anwendungen. Lüdenscheid: RAM-Verlag 2008, (ISBN 978-3-9802659-5-9).
  9. Grzybek, Peter, & Köhler, Reinhard (eds.) (2007): Exact Methods in the Study of Language and Text. Dedicated to Gabriel Altmann on the Occasion of his 75th Birthday. Berlin/ New York: Mouton de Gruyter
  10. de:Benutzer:Dr._Karl-Heinz_Best
  11. index
  12. de:Sergei Grigorjewitsch Tschebanow
  13. Best, Karl-Heinz (2009): William Palin Elderton (1877-1962). Glottometrics 19, p. 99-101 (PDF ram-verlag.eu).
  14. Homepage_Gertraud Fenk
  15. de:Ernst Förstemann; Karl-Heinz Best: Ernst Wilhelm Förstemann (1822-1906). In: Glottometrics 12, 2006, pp. 77–86 (PDF ram-verlag.eu)
  16. Dieter Aichele: Das Werk von W. Fucks. In: Reinhard Köhler, Gabriel Altmann, Rajmund G. Piotrowski (Hrsg.): Quantitative Linguistik - Quantitative Linguistics. Ein internationales Handbuch. de Gruyter, Berlin/ New York 2005, pp. 152–158. (ISBN 3-11-015578-8)
  17. de:Gustav Herdan
  18. Herdan dimension - Laws in Quantitative Linguistics
  19. de:Luděk Hřebíček
  20. de:Friedrich Wilhelm Kaeding
  21. (de) Snježana Kordić, Wörter im Grenzbereich von Lexikon und Grammatik im Serbokroatischen [« Mots dans la zone frontalière du lexique et de la grammaire en serbocroate »], Munich, Lincom Europa, coll. « Studies in Slavic Linguistics » (no 18), , 280 p. (ISBN 3-89586-954-6, OCLC 47905097, LCCN 2005530314, DNB 963264087, SUDOC 083721398, présentation en ligne), p. 280
  22. (de) Snježana Kordić, Der Relativsatz im Serbokroatischen [« La proposition relative en serbocroate »], Munich, Lincom Europa, coll. « Studies in Slavic Linguistics » (no 10), (réimpr. 2002 et 2005) (1re éd. 1999), 330 p. (ISBN 978-3-89586-573-2 et 3-89586-573-7, OCLC 42422661, DNB 956417647, présentation en ligne, lire en ligne), p. 330
  23. Georg-August-Universität Göttingen - Lehfeldt, Werner, Prof. em. Dr
  24. Festschrift on the occasion of the 70. anniversary: Problems of General, Germanic and Slavic Linguistics. Papers for 70th Anniversary of Professor V. Levickij. Herausgegeben von Gabriel Altmann, Iryna Zadoroshna, Yuliya Matskulyak. Books, Chernivtsi 2008. (No ISBN.) Levickij dedicated: Glottometrics, Heft 16, 2008; Emmerich Kelih: Der Czernowitzer Beitrag zur Quantitativen Linguistik: Zum 70. Geburtstag von Prof. Dr. Habil. Viktor V. Levickij. In: Naukovyj Visnyk Černivec’koho Universytetu: Hermans’ka filolohija. Vypusk 407, 2008, pp. 3–10.
  25. Human-Language-Computer - staff Homepage, ZJU
  26. Karl-Heinz Best: Paul Menzerath (1883-1954). In: Glottometrics 14, 2007, pp. 86–98 (PDF ram-verlag.eu)
  27. Shizuo Mizutani; Portrait on the occasion of his 80. anniversary in: Glottometrics 12, 2006 PDF ram-verlag.eu); about Mizutani: Naoko Maruyama: Sizuo Mizutani (1926). The Founder of Japanese Quantitative Linguistics. In: Glottometrics 10, 2005, pp. 99–107(PDF ram-verlag.eu).
  28. Charles Muller: Initiation Ă  la statistique linguistique. Paris: Larousse 1968; German: EinfĂĽhrung in die Sprachstatistik. Hueber, MĂĽnchen 1972.
  29. Rajmund G. Piotrowski, R.G. Piotrovskij; cf. Piotrowski's law: http://lql.uni-trier.de/index.php/Change_in_language
  30. de:Piotrowski-Gesetz
  31. Journal of Quantitative Linguistics 4, Nr. 1, 1997 (Festschrift in Honour of Juh. Tuldava)
  32. Dr Andrew Wilson - Linguistics and English Language at Lancaster University
  33. de:Albert Thumb
  34. de:Eberhard Zwirner

Références

  • Karl-Heinz Best: Linguistik quantitative. Eine Annäherung . 3., stark ĂĽberarbeitete und ergänzte Auflage. Peust & Gutschmidt, Göttingen 2006, (ISBN 3-933043-17-4) . En allemand.
  • Karl-Heinz Best, Otto Rottmann: La linguistique quantitative, une invitation. RAM-Verlag, LĂĽdenscheid 2017. (ISBN 978-3-942303-51-4). En anglais.
  • Pierre Guiraud: Bibliographie critique de la statistique linguistique. Éditions Spectrum, Utrecht/Anvers 1954.
  • Reinhard Köhler avec l'aide de Christiane Hoffmann: Bibliographie de linguistique quantitative. Benjamins, Amsterdam / Philadelphie 1995, (ISBN 90-272-3751-4) .
  • Reinhard Köhler, Gabriel Altmann, Gabriel, Rajmund G. Piotrowski (eds. ): Linguistik quantitative - Linguistique quantitative. Ein internationales Handbuch - Un manuel international . de Gruyter, Berlin / New York 2005, (ISBN 3-11-015578-8).
  • Jacqueline LĂ©on, Sylvain Loiseau (eds.): History of Quantitative Linguistics in France. RAM-Verlag, LĂĽdenscheid 2016. (ISBN 978-3-942303-48-4).
  • Haitao Liu et Wei Huang. Linguistique quantitative: Ă©tat de l'art, thĂ©ories et mĂ©thodes . Journal de l'UniversitĂ© du Zhejiang (sciences humaines et sociales) . 2012-2043 (2): 178-192. En chinois.

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.