J’ai déjà lu des développements comme ceux que vous citez avec des références à différents types d’objectivismes, dont celui fort et faible.
Notamment Michel Bitbol qui fait référence au holisme tout comme vous, sauf que ça pose des questions méthodologiques qui deviennent très vite assez embarrassantes. Disons que dans l’acception commune , en philo des sciences ou épistémologie il y a le réductionnisme d’une part et de l’autre le holisme complètement à l’autre bout.
Ce dualisme-là comme matière/esprit est à mon avis précisément sans nuance ce qui en fait son intérêt, dichotomique et sans pont immédiat entre les 2 extrémités. À moins de l’inventer et le construire de toute pièce. Le construire comme on emboite les pièces d’un puzzle, au moyen d’un pont métaphysique peut-être… Et là Descartes, Leibniz et Spinoza s’y prendront chacun d’une manière différente. Monisme, dualisme ou parallèle ontologique…
Pour poser le problème d’un lien entre les 2, il faut considérer qu’il n’y a pas établi d’avance un réductionnisme « fort » qui tendrait la main de façon conviviale par exemple vers un holisme « faible ». Et qui permettrait du coup d’envisager un point de passage explicatif et clarificateur pour la mécanique Q, comme celui permettant le passage ontologique d’un état-onde vers un état-corpuscule de l’objet quantique. C’est pour cela que je préfère un dualisme nettement plus « soft » si j’ose m’exprimer ainsi: celui entre émergence dite faible, et celle dite forte.
Par définition, une propriété nouvelle émergera de façon "faible" lorsqu’on pourra considérer qu’elle résulte directement de l’assemblage de ses parties. Une propriété émergera de façon « forte » lorsque le tout influencera chacune de ses parties qui en s’assemblant une nouvelle fois donneront une nouvelle propriété.
Tout de suite une précision… Ne pas confondre et mettre dans un même panier attribut, propriété, qualité etc. car sinon on fait une confusion qui fait qu’on ne sait plus vraiment au final de quoi on parle. Les termes d’émergence, qu’ils se déclinent en faible ou fort revêtent de plus -difficulté supplémentaire- des sens assez différents selon les différentes sciences qui les utilisent: comme la physique, la biologie mais aussi la sociologie où son sens paraît nettement plus immédiat et compréhensible intuitivement. Il y a un cadre contextuel/conceptuel absolument nécessaire à saisir comme prolégomène avant de s'aventurer à déterminer ce qui "émerge" ou émergerait dans chacune de ces sciences.
L’exemple classique d’une confusion toujours possible en physique au niveau de l’émergence est celui de l’agitation brownienne des molécules de gaz d’où « émerge » une nouvelle propriété, la température: on passe ainsi au niveau explicatif du moléculaire au molaire. Mais pas de méprise ni de confusion non plus: la température est une propriété ou une « qualité » typique au niveau molaire, ce qui veut dire qu’au niveau moléculaire parler de la température d’une molécule n’a aucun sens. C’est pour cela qu’on n’en parle jamais !
La thermodynamique statistique permet de comprendre comment on passe d’une agitation moléculaire d’un groupe de particules à la température d’un volume de gaz, phénomène qui fut étudié depuis l’Antiquité et surnommé chaleur. Dans ce cas du passage du moléculaire au molaire, il n’y a pas "émergence" d’une nouvelle propriété qui s’appellerait "température »: les molécules s’entrechoqueront de façon chaotique, et statistiquement cela donnera ou produira globalement dans un récipient une propriété qui se nommera la température. Mais parler de température au niveau moléculaire n’aurait aucun sens.
Par contre en Mécanique Q il y a bien effectivement émergence d’un réel macroscopique depuis un autre réel, lequel est microscopique cette fois. Et décrit précisément par une fonction d’onde qui comble de complication (!) est un nombre complexe. Mais que l’on appréhende « physiquement » et concrètement donc par la mesure et observation au moyen de sa norme. Auquel on adjoint un corpus théorique celui d’espace de Hilbert, ce qui permet une décomposition en vecteurs propres renvoyant à une superposition d’états.
La norme de cette fonction d’onde est relative à une probabilité d’état que l’on sait calculer et que l’on peut mesurer… La coïncidence entre les deux, observation et théorie, établit la mécanique quantique comme science exacte: on a pu le vérifier maintes et maintes fois. il y a de très nombreuses applications de la mécanique quantique utilisées dans notre vie quotidienne comme les disques lasers mais aussi en chimie, les transistors dont sont équipés nos ordinateurs, les microscopes à effet Tunnel, l'électricité en général etc.
Autre chose: le langage naturel surtout quant il est conceptuel révèle vite ses limites quand on l’applique à cette science. J’ai pris comme définition de l’émergence forte le fait qu’une propriété émergera lorsqu’on pourra considérer que c’est le fait du tout qui influence chacune de ses parties. En s’assemblant d’une nouvelle manière elles donneront une nouvelle propriété qui « émergera ». Dans cette définition qu’est-ce qu’on va considérer comme « tout » ? Le grand tout soit le Tout, l’univers entier ? Ou l’une de ses parties, suffisamment englobante pour expliquer l’irruption de cette nouvelle propriété influençant chaque partie ? Si oui laquelle ou lesquelles ?
Si c’est une affaire de contexte, quelles en seront les limites et comment va-t-on les fixer ?
Dans le cas de la mécanique Q, la décohérence quantique donne une réponse considérée comme sûre: on sait qu’au niveau de l’échelle cristalline il y a brutalement réduction de la fonction d’onde. L’objet corpuscule/onde- deviendra « certain » au cours ce changement de dimension et d’échelle: soit d’une probabilité égale à 1. La bizarrerie supplémentaire (la mécanique Q n’en manque pas) est que cette réduction s’effectue quasi instantanément, ce qui semble a priori en contradiction totale avec la Relativité qui établit la vitesse de la lumière dans le vide comme un maximum absolu. Un seuil indépassable a priori… L'effondrement de la fonction d'onde donnant comme résultat un objet "certain" résulte de la multitude d'interactions au fur et à mesure que l'on avance dans l'échelle depuis le micro vers le macro. C'est ce qui explique ce saut qualitatif qui se situe au niveau cristallin selon la décohérence quantique : les interactions entre les molécules structurées en réseau et l'objet quantique se manifestant en des proportions de plus en plus grandes et nombreuses, l'objet finit par devenir "certain". Sur un plan général, on pourrait considérer qu'une des raisons ou moteur de cet avènement local est la complexité. L'univers tend ou a tendu durant une grande partie de son histoire vers des niveaux de complexité toujours croissants.
On en retrouve la trace ou une sorte d'image au niveau sociologique où la multiplicité d'inventions scientifiques et technologiques complexes comme Internet tend à créer des réseaux de plus en plus maillés et fortement interagissants, donc complexes d'où l'émergence de nouvelles propriétés peut se produire à différents niveaux.
Une remarque : je serais assez partisan de revenir, en les rénovant et les dépoussiérant quelque peu aux concepts classiques et anciens de « corps » et d’étendue employés communément au XVIIème siècle. Le concept de corps a subi une refonte complète à cause de Lavoisier et l’irruption de la chimie. Mais celui de l’étendue reste le même à ma connaissance et l’étendue bien qu’homologue à l’espace est fondamentalement différent: d’où l’intérêt de l’étendue comme concept pour parler précisément de ces particules intriquées qui continuent de s’influencer à des distances souvent colossales l’une de l’autre. Comme si ironie (!) l’espace n’existait pas… Ce concept d’étendue a quasiment disparu de la littérature « philosophique » me semble-t-il, ou en tout cas n’a pas subi de refonte quasi complète comme celui du concept de corps.
P.S. Désolé si ça vous paraît pas clair-clair ce que je raconte mais dans ce domaine la méca Q, même les plus grands savants (Heisenberg, Einstein etc.) ont reconnu qu’ils n’y comprenaient rien ou très peu, sûrement plus que moi en tout cas. Par contre je crois qu’on peut travailler les concepts et les -ismes de façon à ce que le langage dit naturel se rapproche de la réalité formelle et conceptuelle de ce qui est décrit par la physique Q comme étant sa « réalité ».
Mais en attendant ce sont toujours les maths qui décrivent le mieux cette réalité quantique. Et qui continuent… et avec des découvertes qui paraissent toujours de plus en plus bizarres, comme la récente expérience de l’université de Jérusalem
Notamment Michel Bitbol qui fait référence au holisme tout comme vous, sauf que ça pose des questions méthodologiques qui deviennent très vite assez embarrassantes. Disons que dans l’acception commune , en philo des sciences ou épistémologie il y a le réductionnisme d’une part et de l’autre le holisme complètement à l’autre bout.
Ce dualisme-là comme matière/esprit est à mon avis précisément sans nuance ce qui en fait son intérêt, dichotomique et sans pont immédiat entre les 2 extrémités. À moins de l’inventer et le construire de toute pièce. Le construire comme on emboite les pièces d’un puzzle, au moyen d’un pont métaphysique peut-être… Et là Descartes, Leibniz et Spinoza s’y prendront chacun d’une manière différente. Monisme, dualisme ou parallèle ontologique…
Pour poser le problème d’un lien entre les 2, il faut considérer qu’il n’y a pas établi d’avance un réductionnisme « fort » qui tendrait la main de façon conviviale par exemple vers un holisme « faible ». Et qui permettrait du coup d’envisager un point de passage explicatif et clarificateur pour la mécanique Q, comme celui permettant le passage ontologique d’un état-onde vers un état-corpuscule de l’objet quantique. C’est pour cela que je préfère un dualisme nettement plus « soft » si j’ose m’exprimer ainsi: celui entre émergence dite faible, et celle dite forte.
Par définition, une propriété nouvelle émergera de façon "faible" lorsqu’on pourra considérer qu’elle résulte directement de l’assemblage de ses parties. Une propriété émergera de façon « forte » lorsque le tout influencera chacune de ses parties qui en s’assemblant une nouvelle fois donneront une nouvelle propriété.
Tout de suite une précision… Ne pas confondre et mettre dans un même panier attribut, propriété, qualité etc. car sinon on fait une confusion qui fait qu’on ne sait plus vraiment au final de quoi on parle. Les termes d’émergence, qu’ils se déclinent en faible ou fort revêtent de plus -difficulté supplémentaire- des sens assez différents selon les différentes sciences qui les utilisent: comme la physique, la biologie mais aussi la sociologie où son sens paraît nettement plus immédiat et compréhensible intuitivement. Il y a un cadre contextuel/conceptuel absolument nécessaire à saisir comme prolégomène avant de s'aventurer à déterminer ce qui "émerge" ou émergerait dans chacune de ces sciences.
L’exemple classique d’une confusion toujours possible en physique au niveau de l’émergence est celui de l’agitation brownienne des molécules de gaz d’où « émerge » une nouvelle propriété, la température: on passe ainsi au niveau explicatif du moléculaire au molaire. Mais pas de méprise ni de confusion non plus: la température est une propriété ou une « qualité » typique au niveau molaire, ce qui veut dire qu’au niveau moléculaire parler de la température d’une molécule n’a aucun sens. C’est pour cela qu’on n’en parle jamais !
La thermodynamique statistique permet de comprendre comment on passe d’une agitation moléculaire d’un groupe de particules à la température d’un volume de gaz, phénomène qui fut étudié depuis l’Antiquité et surnommé chaleur. Dans ce cas du passage du moléculaire au molaire, il n’y a pas "émergence" d’une nouvelle propriété qui s’appellerait "température »: les molécules s’entrechoqueront de façon chaotique, et statistiquement cela donnera ou produira globalement dans un récipient une propriété qui se nommera la température. Mais parler de température au niveau moléculaire n’aurait aucun sens.
Par contre en Mécanique Q il y a bien effectivement émergence d’un réel macroscopique depuis un autre réel, lequel est microscopique cette fois. Et décrit précisément par une fonction d’onde qui comble de complication (!) est un nombre complexe. Mais que l’on appréhende « physiquement » et concrètement donc par la mesure et observation au moyen de sa norme. Auquel on adjoint un corpus théorique celui d’espace de Hilbert, ce qui permet une décomposition en vecteurs propres renvoyant à une superposition d’états.
La norme de cette fonction d’onde est relative à une probabilité d’état que l’on sait calculer et que l’on peut mesurer… La coïncidence entre les deux, observation et théorie, établit la mécanique quantique comme science exacte: on a pu le vérifier maintes et maintes fois. il y a de très nombreuses applications de la mécanique quantique utilisées dans notre vie quotidienne comme les disques lasers mais aussi en chimie, les transistors dont sont équipés nos ordinateurs, les microscopes à effet Tunnel, l'électricité en général etc.
Autre chose: le langage naturel surtout quant il est conceptuel révèle vite ses limites quand on l’applique à cette science. J’ai pris comme définition de l’émergence forte le fait qu’une propriété émergera lorsqu’on pourra considérer que c’est le fait du tout qui influence chacune de ses parties. En s’assemblant d’une nouvelle manière elles donneront une nouvelle propriété qui « émergera ». Dans cette définition qu’est-ce qu’on va considérer comme « tout » ? Le grand tout soit le Tout, l’univers entier ? Ou l’une de ses parties, suffisamment englobante pour expliquer l’irruption de cette nouvelle propriété influençant chaque partie ? Si oui laquelle ou lesquelles ?
Si c’est une affaire de contexte, quelles en seront les limites et comment va-t-on les fixer ?
Dans le cas de la mécanique Q, la décohérence quantique donne une réponse considérée comme sûre: on sait qu’au niveau de l’échelle cristalline il y a brutalement réduction de la fonction d’onde. L’objet corpuscule/onde- deviendra « certain » au cours ce changement de dimension et d’échelle: soit d’une probabilité égale à 1. La bizarrerie supplémentaire (la mécanique Q n’en manque pas) est que cette réduction s’effectue quasi instantanément, ce qui semble a priori en contradiction totale avec la Relativité qui établit la vitesse de la lumière dans le vide comme un maximum absolu. Un seuil indépassable a priori… L'effondrement de la fonction d'onde donnant comme résultat un objet "certain" résulte de la multitude d'interactions au fur et à mesure que l'on avance dans l'échelle depuis le micro vers le macro. C'est ce qui explique ce saut qualitatif qui se situe au niveau cristallin selon la décohérence quantique : les interactions entre les molécules structurées en réseau et l'objet quantique se manifestant en des proportions de plus en plus grandes et nombreuses, l'objet finit par devenir "certain". Sur un plan général, on pourrait considérer qu'une des raisons ou moteur de cet avènement local est la complexité. L'univers tend ou a tendu durant une grande partie de son histoire vers des niveaux de complexité toujours croissants.
On en retrouve la trace ou une sorte d'image au niveau sociologique où la multiplicité d'inventions scientifiques et technologiques complexes comme Internet tend à créer des réseaux de plus en plus maillés et fortement interagissants, donc complexes d'où l'émergence de nouvelles propriétés peut se produire à différents niveaux.
Une remarque : je serais assez partisan de revenir, en les rénovant et les dépoussiérant quelque peu aux concepts classiques et anciens de « corps » et d’étendue employés communément au XVIIème siècle. Le concept de corps a subi une refonte complète à cause de Lavoisier et l’irruption de la chimie. Mais celui de l’étendue reste le même à ma connaissance et l’étendue bien qu’homologue à l’espace est fondamentalement différent: d’où l’intérêt de l’étendue comme concept pour parler précisément de ces particules intriquées qui continuent de s’influencer à des distances souvent colossales l’une de l’autre. Comme si ironie (!) l’espace n’existait pas… Ce concept d’étendue a quasiment disparu de la littérature « philosophique » me semble-t-il, ou en tout cas n’a pas subi de refonte quasi complète comme celui du concept de corps.
P.S. Désolé si ça vous paraît pas clair-clair ce que je raconte mais dans ce domaine la méca Q, même les plus grands savants (Heisenberg, Einstein etc.) ont reconnu qu’ils n’y comprenaient rien ou très peu, sûrement plus que moi en tout cas. Par contre je crois qu’on peut travailler les concepts et les -ismes de façon à ce que le langage dit naturel se rapproche de la réalité formelle et conceptuelle de ce qui est décrit par la physique Q comme étant sa « réalité ».
Mais en attendant ce sont toujours les maths qui décrivent le mieux cette réalité quantique. Et qui continuent… et avec des découvertes qui paraissent toujours de plus en plus bizarres, comme la récente expérience de l’université de Jérusalem