Maurice Toussaint – Psychomécanique du langage et théorie des formes sémantiques

Maurice Toussaint présentera quelques-uns des concepts de la psychomécanique de G. Guillaume, cadre théorique qu’il a contribué à critiquer et aménager. Il en discutera également les affinités et différences avec divers travaux qui s’en sont inspirés, ainsi qu’avec les théories plus récentes de formes sémantiques.

Présentation

Y compris sous sa version  » neurolinguistique épistémique  » la psychomécanique, vu ses affinités avec les théories plus récentes de formes sémantiques, devrait pouvoir être fécondée par celles-ci, plus authentiquement inscriptibles dans une théorie des systèmes dynamiques complexes. Une fécondation en retour reste une question ouverte.

Thèmes abordés

Le temps opératif guillaumien et la microgenèse wernerienne ; les  » chronothèses de la chronogénèse  » les étapes successives d’un développement ? (cf. Victor Rosenthal)
Présentation des schèmes guillaumiens et du « modèle oscillatoire ».

La théorie des aires, les trois chronothèses chez Guillaume et les trois régimes des formes chez Cassirer.

Signifiés de puissance guillaumiens vs motifs, profils, thèmes ;
sémantique grammaticale vs sémantique lexicale ; les travaux de Jean-Claude Chevalier, Paulo de Carvalho, Marie-France Delport, Bernard Pottier, Alvaro Rocchetti, Olivier Soutet ; le débat guillaumien des  » saisies « .

Interprétation neurologisante de la psychomécanique du langage et naturalisation de la phénoménologie. Analogie et systématicité : histoire de la linguistique cognitive et systèmes linguistiques en psychomécanique du langage ; cognition et culture : pour une apologie du chiasme.

Points de vue sur la psychomécanique du langage et la neurolinguistique épistémique

Monneret, P., 1996, Pour une psychomécanique des pathologies du langage. Etude de neurolinguistique théorique, thèse, Paris IV.

Monneret, P., 2003, Le sens du signifiant. Implications linguistiques et cognitives de la motivation, Honoré Champion, Paris.

Thavaud-Piton, S., 2002, Sémantique lexicale et psychomécanique guillaumienne, thèse, Paris IV.

Tollis, F., 1991, La parole et le sens. Le guillaumisme et l’approche contemporaine du langage, Armand Colin,

Tollis F. ed., 1996. The Psychomechanics of Language and Guillaumism, LynX, a Monographic Series in Linguistics and World Perception 5.

Valette M., 2004, Linguistiques énonciatives et cognitives françaises. Gustave Guillaume, Bernard Pottier, Maurice Toussaint, Antoine Culioli, collection  » Bibliothèque de Grammaire et de Linguistique « , Honoré Champion, Paris.

Le français moderne 1, 2003, La jeunesse du guillaumisme.

Toussaint M., 1975, Etude roumaine à verser au dossier de la non-arbitrarité du signe, Revue roumaine de linguistique XX, 6, 741-746.

1983, Contre l’arbitraire du signe, Didier Erudition, Paris.

1983, Du temps et de l’énonciation, Langages 70, 107-126.

1995, Universalisme et universalité : pour une physique des cas, Anuario de Estudios Filológicos, XVIII, 507-522 (critique du modèle de Bernard Pottier).

1997, Le sujet du temps, Cahiers de praxématique 29, 185-203.

2002, Lettre à Michel Arrivé, Le signe et la lettre, Hommage à Michel Arrivé, L’Harmattan, Paris, 431-439.

2003, Analogiques, Le mot comme signe et comme image : lieux et enjeux de l’iconicité linguistique, Cahiers de linguistique analogique 1, 331-350.

Franck Lebas – La signification part-elle dans le bon sens ? Quelques pistes fournies par les rapports entre linguistique et phénoménologie ?

L’évolution des théories linguistiques accompagne l’évolution des
concepts de signification et de sens. Nous tenterons un bilan de la
définition de ces concepts à l’heure actuelle, à l’aide de trois points
d’appui :
– une analyse comparative de quelques théories linguistiques actuelles,
– les fondements phénoménologiques de la théorie de l’Indexicalité du Sens,
– l’analyse de quelques problèmes de sémantique (dont le système des
articles, les « référents évolutifs », les verbes de mouvement, la notion de
classe lexicale, etc.)
L’objectif principal de ce parcours est d’entrevoir ce qui, après les
notions de « représentation », de contraste « figure/fond » et de
« transposition », constitue l’avenir des concepts de signification et de sens.

Alain Herreman – Les enjeux d’une approche sémiotique des mathématiques

Nous nous efforcerons de montrer que les mathématiques ne sont nullement
réductibles à une simple activité symbolique et qu’elles sont au
contraire justiciables d’une analyse sémiotique. Nous commencerons par
dégager quelques-uns des enjeux historiographiques d’une telle analyse.
Nous nous attacherons ensuite à présenter des formes particulières
d’expression de la généralité à partir desquelles nous pourrons proposer
une caractérisation sémiotique des mathématiques ensemblistes.

Wolfgang Wildgen – Cassirer et la linguistique moderne

Dans cet exposé je réfléchis sur plusieurs questions fondamentales de la sémiotique et de la linguistique théorique qui m’ont inquiétées ces dernières années et je partirais de l’œuvre d’intégration réalisée par le philosophe Ernst Cassirer (1874-1945). Il s’agit d’abord de résumer l’apport de celui-ci à la sémiotique et à la linguistique théorique depuis son livre sur les concepts de substance et de forme (« Substanz- und Funktionsbegriff ») de 1910, donc contemporain aux cours donnés par Ferdinand de Saussure à Genève jusqu’à ses derniers travaux dans l’émigration en Suède et aux États-Unis (1944/45). Entre ces deux dates (1910/1945) le structuralisme européen avait trouvé sa forme dans les programmes de Genève (le cours publié en 1916), de Prague et de Copenhague. Cassirer a commenté ce développement dans un exposé devant le Cercle Linguistique de New York et ce commentaire montre la clairvoyance de Cassirer en vue des développements tardifs du structuralisme à la fin du 20e siècle. Un thème qui relie Cassirer non seulement à la psychologie génétique de Piaget mais aussi au structuralisme génératif de Chomsky concerne la théorie des groupes et son rôle dans la théorisation des phénomènes d’invariance dans les sciences de la nature et de l’homme. Cette question sera discutée dans la deuxième partie de mon exposé. Elle ouvre la possibilité de rapprocher l’œuvre de René Thom et l’évolution du structuralisme en linguistique. La dernière section concernera ce qu’on appelle « Linguistique cognitive » et j’essaierai de placer les propositions théoriques de Lakoff et Langacker dans le contexte plus général d’une théorisation intégrative des comportements symboliques au sein des études cognitives (psychologiques, neurologiques) et culturelles (sociologiques, anthropologiques).

Cette contribution à la discussion théorique ne suggère guère un programme nouveau ou une « solution » des problèmes fondamentaux en sémiotique ou en linguistique, elle met en œuvre une réflexion critique des progrès apportés au cours du 20e siècle et esquisse quelques perspectives pour une sémiotique/linguistique du 21e siècle.

John Stewart – Théories de l’évolution – qualités et limites du schème néo-darwinien

Qu’est-ce qu’un gène ? Un dossier révélateur dans un numéro récent de « La Recherche » met en évidence la remarquable absence de consensus : 18 spécialistes donnent autant de réponses différentes à la question. Pour mettre de l’ordre dans la confusion, on peut néanmoins regrouper les réponses en deux grandes catégories : d’une part, celles centrées sur l’ADN (et la biologie moléculaire apparenté, à savoir le ARN-messager et les protéines) ; d’autre part, les réponses « classiques » qui se réfèrent à la génétique formelle de Mendel à Morgan, qui a abouti à la théorie chromosomique. Le but de ce petit livre (une centaine de pages) est d’abord de présenter la génétique classique de façon succincte mais conséquente et accessible à des non-spécialistes (ce qui n’est déjà pas superflu, tant cette théorie est devenue méconnue) ; ensuite, de tirer des conséquences épistémologiques de cette théorie, en soulignant à la fois sa force et sa faiblesse caractéristiques, concernant la relation entre la génétique et la biologie. La conclusion sera un plaidoyer pour un retour (ou un nouveau départ) vers une biologie des organismes vivants en tant que tels, au trois échelles de temps de la physiologie, de l’ontogenèse et de la phylogenèse.

I. La génétique formelle.

– Présentation de l’expérience princeps de Mendel. Le couple conceptuel phénotype-génotype. Le phénotype est un trait observable des organismes en question ; le génotype, lui, n’est pas observable en tant que tel (cf, en physique, des entités comme la force, la masse, ou bien des électrons, des quarks etc ; aucune n’est observable directement en tant que telle, ce sont des objets scientifiques constitués en théorie, qui expliquent des phénomènes empiriquement observables). Souligner, déjà, le caractère différentiel de la génétique : on infère des différences génotypiques sur la base de l’observation de différences phénotypiques. Plus particulièrement, on infère que le génotype associé à un trait phénotypique donné est composé de deux facteurs mendéliens, un reçu de chacun des deux parents lors de la reproduction sexuelle, et dont l’un ou l’autre sera tranmis, aléatoirement, à chaque individu de la progéniture. Souligner la nature discrète des facteurs mendéliens, qui ne se mélangent pas (phénomène clé de la « ségrégation »).

– Présentation des expériences de l’Ecole de Morgan. En observant des croisements portant simultanément sur trois (ou plus) traits phénotypiques, on déduit que les facteurs mendéliens sont situés linéairement les uns par rapport aux autres, dans un certain nombre (4 pour la Drosophile, 23 pour les humains) de groupes de linkage.

– La théorie chromosomique. L’homologie parfaite entre le comportement des facteurs mendéliens, et celui des chromosomes (structures microscopiques observables à certains étapes de la division cellulaire, notamment lors de la méiose qui donne lieu aux gamètes). Conclusion : les facteurs mendéliens (que l’on appelera « gènes ») se situent dans les chromosomes, et possèdent donc un support matériel a priori identifiable. Rapide survol de la suite de l’histoire : les molécules biochimiques qui sont le substrat des gènes s’avèrent ne pas être des protéines, comme on le pensaient initialement, mais des acides nucléiques et plus précisément l’ADN.

II. Conséquences épistémologiques.

La force et la faiblesse de la génétique formelle résident inséparablement dans une caractéristique singulière de son épistémologie : il est possible de passer directement de l’observation d’un phénotype final, à des inférences sur les facteurs génétiques sous-jacents, en court-circuitant toutes les étapes intermédiaires de la chaîne causale par laquelle une différence dans un facteur génétique produit une différence dans le phénotype correspondant en traversant tous les niveaux d’organisation intermédiaires (ARN-messager, protéine, métabolisme, physiologie cellulaire, physiologie des organes, systèmes physiologiques, organisme….).
C’est sa force, car cette caractéristique permet d’inférer les propriétés essentielles des facteurs génétiques, et de les suivre à la trace des différences phénotypiques qu’ils provoquent, sans jamais regarder à l’intérieur de l’organisme (cf I ci-dessus).
Malgré sa puissance, cette caractéristique singulière de la génétique formelle est en même temps une grande faiblesse ; car en court-circuitant toute la châine causale qui relie le génotype au phénotype, elle instaure une coupure entre la génétique et la biologie. Le fait qu’aujourd’hui la biologie semble bien souvent se réduire à séquencer l’ADN, en oubliant l’organisme vivant en tant que tel, est une conséquence fâcheuse de cette singularité épistémologique de la génétique (cf le délaissement des disciplines traditionnelles qu’étaient la physiologie, l’embryologie, l’histoire naturelle et l’écologie). Il faut souligner que la génétique formelle (et à sa suite la biologie moléculaire qui en dérive) est constitutivement aveugle à tout ce qui est invariant dans l’espèce – et qui est néanmoins la condition de possibilité pour qu’une différence dans un génotype puisse donner lieu à une différence dans un phénotype. Exemple primordial : l’autopoièse. Deuxième exemple, révélateur : la génétique, contrairement à ce qu’on dit habituellement, n’est pas une science de l’hérédité, car elle n’explique pas comment il se fait qu’une progéniture ressemble à ses parents, mais bien plutôt comment elle peut en être différente (et corrélativement, comment des frères et soeurs peuvent être différents entre eux).

III. Conclusion.

Afin de rétablir une articulation entre la génétique et une biologie des organismes entiers, il sera nécessaire d’étudier dans le détail la totalité de la chaîne causale qui conduit d’une différence dans un facteur génétique à une différence dans le caractère phénotypique correspondant. Cette thèse sera illustrée en prenant le cas des maladies génétiques multifactorielles.

[Annexe. Les maladies génétiques « classiques » (par exemple la chorée de Huntingdon ou la mucoviscidose) sont « monogéniques », c’est-à-dire que la présence ou l’absence de la maladie est imputable à des différences dans un seul facteur génétique parmi les 20 ou 30 mille que comporte le génôme humain. Il est à noter que même dans ce cas, il est tout sauf trivial d’élucider la totalité de la chaîne causale conduisant du facteur génétique au phénotype final.
Aujourd’hui, il y a un intérêt croissant pour les maladies dites « multifactorielles ». Ici, des facteurs génétiques et des facteurs environemmentaux sont tous les deux importants (l’héritabilité, que l’on peut estimer par le taux de concordance des jumeaux monozygotes, est généralement de l’ordre de 50%). Depuis peu, grâce notamment aux marqueurs microsatellites, on sait que le nombre de facteurs génétiques impliqués est moyennement élevé (de l’ordre de 10 à 30). Ce nombre dépend évidemment de la précision et spécificité de la définition de la maladie en termes cliniques : plus la définition est spécifique, moins sera le nombre de facteurs génétiques. Un exemple probablement assez typique est fourni par le diabète type-1 (il s’agit d’une forme spécifique de diabète où une déficience en insuline est provoqué par la destruction auto-immune des cellules _ du pancréas). On pense aujourd’hui (conforté en cela par un modèle chez la souris) que le nombre de facteurs génétiques est de l’ordre de 15.
La fréquence du diabète type-1 dans la population générale est approximativement 0.4%. Ainsi, comme pour les autres maladies multifactorielles, la fréquence de cette maladie est plusieurs ordres de grandeur plus élevée que celles des maladies monogéniques. Ceci soulève une question intéressante : quelle est la fréquence des allèles responsables de la maladie ? Pour prendre des repères, examinons deux cas extrêmes :
(a) Si chacun des 15 facteurs est à lui tout seul une cause suffisante pour la maladie, la fréquence de chacun sera de (0.4/15)% = 2,7 . 10-4. On se rapproche des fréquences des maladies monogéniques ; et en fait, dans ce cas, on pourrait considérer qu’il s’agit non pas d’une maladie, mais de 15 maladies monogéniques différentes que la recherche clinique aurait pour tâche de différencier. Mais il existe une autre possibilité.
(b) Il se peut aussi que tous les 15 facteurs doivent être présents simultanément pour que la maladie de manifeste. Dans ce cas, la fréquence de chaque facteur, fs, serait donné par : fs15 = 0.004, c’est-à-dire fs = 0,7. Autrement dit, la forme « anormale » de chaque facteur génétique serait présent chez 70% des individus normaux.
Selon toute vraisemblance, la situation réelle est intermédiaire entre ces deux extrêmes. Ce qu’il faut retenir, c’est que plus les interactions entre les différents facteurs génétiques sont fortes (c’est-à-dire plus le nombre de facteurs génétiques qui doivent être présents simultanément pour que la maladie se manifeste est élevé), plus grande sera la fréquence des allèles « anormaux » dans la population générale.
Il est possible d’établir un calcul reliant la fréquence d’une maladie multifactorielle chez les frères et les soeurs d’invidus atteints, à la fréquence dans la populations des allèles prédisposant à la maladie. Pour le cas du diabète type-1, (fréquence 0.4%, héritabilité 0.34, fréquence chez les frères et soeurs de 6%), on en conclut que la fréquence des allèles prédisposant à la maladie est élevée, de l’ordre de 30%. Si ce résultat se confirme et se généralise, cela représenterait un changement considérable dans notre vision des gènes impliqués dans les maladies multifactorielles. Jusqu’ici, en se basant sur les maladies monogéniques, on tend à penser que toutes les maladies génétiques sont imputables à des « mauvais gènes », très rares dans la population, de sorte qu’une thérapie génique soit envisageable. Mais si les fréquences sont de l’ordre de 30%, les allèles ne seraient pas « anormaux » en soi, mais seulement dans certaines combinaisons rares ; dans d’autres combinaisons, ces mêmes allèles pourraient être neutres ou même bénéfiques. Une approche en termes de thérapie génique serait alors à la fois impratiquable et imprudente.
Cette fréquence élevée signifie que les allèles seraient présents chez un grand nombre d’individus normaux. Elle signifie aussi, corrélativement, que les différents facteurs génétiques interagissent fortement entre eux (au moins 8 des 15 facteurs doivent être présents simultanément pour causer la maladie). Pour comprendre ce genre de maladie multifactorielle, il faudra donc comprendre comment les différents facteurs génétiques intéragissent entre eux ; et il faudra également pouvoir suivre à la trace chacun des facteurs individuellement, d’abord pour les détecter chez des individus normaux dans la population, ensuite pour élucider leurs modes d’action spécifiques. Pour voir ce que cela implique, revenons au schème des articulations entre niveaux d’organisation.
On peut considérer, a priori, que les interactions entre deux facteurs génétiques donnés ont lieu au moment du passage entre deux niveaux d’organisation bien précis, que l’on peut désigner par les niveaux « n » et « (n+1) ». J’appelerai « sub-phénotype » un phénotype provenant d’observations à un niveau d’organisation intermédiaire entre le phénotype final et le niveau génétique élémentaire. Par construction, les sub-phénotypes au niveau n sont affectés par un et un seul facteur génétique ; ce sont ce que je propose d’appeler des « phénotypes mendéliens ». Par contre, les sub-phénotypes au niveau (n+1) sont affectés par plusieurs facteurs génétiques. La tâche qui nous incombe, pour comprendre les maladies multifactorielles, est d’identifier et d’observer les sub-phénotypes aux niveaux n et (n+1).
Cette approche générale peut être illustrée concrètement par le cas du diabète type-I. Il s’agit d’une maladie auto-immune. En descendant les niveaux d’organisation (l’auto-immunité peut être due soit à une déficience dans la sélection négative des lympohocytes auto-réactives dans le thymus ; soit à une déficience dans la sélection positive de lymphocytes « régulateurs » dans le thymus et/ou dans la périphérie ; soit à une hyper-susceptibilité de l’organe cible, à savoir les cellules _ du pancréas ; ces sous-catégories se sous-divisent encore), le nombre de loci impliqué dans chaque sub-phénotype ne peut que diminuer ; et on doit logiquement et systématiquement aboutir à l’identification des niveaux « (n+1) » et « n » tels que je les ai définis ci-dessus.
Cette approche, basée sur une synergie entre l’analyse génétique et une biologie capable d’articuler des multiples niveaux d’organisation, est donc conceptuellement faisable. Si elle est néanmoins difficile à appliquer immédiatement, c’est en raison du sous-développement regrettable de la physiologie du système immunitaire.]

Noëlie Vialles – Mangeurs/mangés : questions et hypothèses d’ethnologue

Appelée par la recherche d’une définition de ce que nous appelons « viande », l’ethnographie de ses procédures de production a montré que la question initiale était solidaire de plusieurs autres, qui conduisent à explorer tout le champ des relations entre humains et animaux. État des lieux, des donnéesde terrain aux questions et hypothèses.

Pour préparer cette séance :

– N. Vialles, 1999b. « Toute chair n’est pas viande », Etudes Rurales
N°147-148 (daté 1998) : Mort et mise à mort des animaux, pp. 139-149.

– N. Vialles, 1998a. « Chair ou poisson », Journal des anthropologues, N°74 :
Anthropologie des choix alimentaires, pp. 105-116.

– N. Vialles, 1995. « De l’animal à la viande. Une mort sans cadavre », French
Cultural Studies, 18, vol. 6/3, pp. 335-350.

– N. Vialles, 1988. « La viande ou la bête », Terrain, N° 10 : Hommes et bêtes, pp.
86-96.

– N. Vialles, 1987. Le sang et la chair. Les abattoirs des pays de l’Adour. Paris :
Maison des Sciences de l’Homme / Mission du Patrimoine Ethnologique.

– Un contrepoint :
N. Fiddes, 1991. Meat, a natural symbol. Londres-New York : Routledge

Chris Sinha – Culture, Cognition and Grammaticalization

What distinguishes human natural language from other naturally occurring communicative behaviours and communication systems ? An exclusive focus on syntax tends, paradoxically, to minimize the gap between human natural language and non-linguistic modes of communication. In addition to syntactic and morphological complexity, all natural languages also display symbolic complexity (sometimes referred to as « displacement »), cognitive complexity (in terms of conceptualization subsystems) and pragmatic complexity (linked, in the case of performatives, to symbolic complexity).
In this paper I develop the case that these dimensions of complexity are emergent consequences of the representational function of language, itself definitional, as proposed by Karl Bühler, of the distinction between SIGNALS and SYMBOLS. I argue that Bühler’s signal-symbol distinction is, in terms of psychology of language, a more useful semiotic classification than the better known Peircian triadic classification, inasmuch as icons may be viewed as a species of symbol, and linguistic symbolization is in most cases iconically motivated and always indexically situated.
I propose an account of language evolution based upon the representational development of prelinguistic, intentional communication in contexts of intentional, intersubjective joint reference. The model presented is one in which intentional reference becomes conventionalized and elaborated in processes of semanticization and grammaticalization, about which we know a great deal in the context of historical language change. I discuss the role in language evolution of the niche of infancy, and suggest that the model is compatible with a « late emergence » scenario for evolutionary modern natural languages.

John Stewart – Formes de pensée, formes de vie sociale : la science et l’argent

1) Durkheim, en tant que néo-kantien, pose la question de l’origine (non-empirique) des catégories a priori de l’entendement. En fait, il existe une double articulation entre formes de pensée et formes sociales : d’une part, les catégories conceptuelles de base se doivent d’être partagées par tous les membres (normaux) d’une société, sous peine d’incohérences qui menaceraient la viabilité de la société ; d’autre part, en tant que structures sociales, les catégories ne viennent de nulle part ailleurs que des actions (concrètes, sociales) des individus. Durkheim illustre cela par les catégories de l’espace, du temps, de l’identité, etc. chez des sociétés aborigènes. A ce stade, les catégories sont idiosyncratiques, et spécifique à chaque société (« primitive »). Il se pose alors la question de l’origine des catégories « canoniques » : l’espace et le temps euclidéens et newtoniens, les 12 catégories logiques d’Aristote repris par Kant. Durkheim propose que cela provienne d’une convergence progressive, au fur et à mesure que les échanges entre sociétés se développent.

2) La science et l’argent. Les échanges marchands constituent une voie priviligiée de convergence entre des sociétés différenciées. Mais alors, la prédiction de Durkheim se vérifie presque « trop bien » : au moment où les échanges marchands se développement au point de donner lieu à l’invention de la monnaie frappée (chez les Grecs, aux alentours de 7 siècles av. JC), on voit surgir « d’un coup » les catégories « canoniques » chez les philosophes (et mathématiciens). Le néo-marxiste Sohn-Rethel propose qu’il s’agit de bien plus que d’une simple coïncidence historique : selon lui, « l’abstraction de l’échange » telle que Marx l’analyse dans Le Capital tome 1, contient intrinsèquement, formellement, tous les éléments des catégories « canoniques ». Je donnerai quelques exemples de ces « isomorphismes formels ».

3) Cependant, à son tour, l’hypothèse de Sohn-Rethel fonctionne aussi « trop bien ». En particulier, en posant l’isomporphisme de façon si abrupte en « tout ou rien », la nature de l’articulation entre formes de pensée au niveau des psychismes individuels, et formes de vie sociale (les échanges monétaires) reste opaque. Afin d’approndir ce point, je me tournerai vers Simmel (« Philosophie de l’argent »). Ce que montre Simmel, c’est que la mise en place des institutions monétaires est une longue et très progressif processus historique. On peut alors observer – et comprendre la nécessité – d’une co-évolution des mentalités et des pratiques sociales ; notamment la question épineuse de savoir si la valeur de l’argent peut, ou non, se détacher de son substrat matériel (métaux précieux, billets de banque…).