3 Comments

rob, what's your attitude towards QRI-style arguments against computational theories of consciousness, like the consciousness-multiplying thought experiment in this paper: https://www.degruyter.com/document/doi/10.1515/opphil-2022-0225/html?lang=en

do you think there are good reasons to prefer computational theories over physicalist or vice versa?

Expand full comment

Je comprends l'intérêt de se pencher sur la conscience animale pour réfléchir à ce qu'est la conscience en général, et pourtant je ne suis pas convaincu de la pertinence de cette approche lorsqu'il s'agit de réfléchir à ce que pourrait être la conscience d'une IA de type LLM. En effet, l'émergence de la conscience dans le vivant semble intrinsèquement liée à son incarnation : l'intentionnalité et les émotions sont partie prenante des phénomènes conscients des êtres biologiques. Dans un système désincarné (sans corps) de type LLM, la seule chose qui semble pouvoir être analogue à une expérience sensorielle concerne des inputs textuels : si l'on doit parler de qualia envisageables pour les LLM, ceux-ci ont pour base des mots, des phrases. Or, la conscience liée aux processus de pensée "linguistique" ou "verbale" semble typiquement humaine et est une émergence tardive au sein des phénomènes conscients. Par conséquent, je serais incité à penser qu'il faut partir de nos propres processus de pensée, de leur articulation à une mémoire à long terme, de nos mécanismes d'attention et de réflexion sur nos propres productions conceptuelles pour aborder ce que pourrait être et à partir de quoi on pourrait envisager l'émergence d'une conscience artificielle.

Expand full comment

Rob, I would really appreciate it if you could tell us quickly what you think about this approach:

https://www.lesswrong.com/posts/Ru2cDrre6D4gkf734/my-intellectual-journey-to-solve-the-hard-problem-of

Expand full comment