Blog

Filosofía de la nosología: ¿son científicos los modelos de la psiquiatría?

La nosología psiquiátrica constituye uno de los campos de reflexión filosófica más fascinante y fructífero de los últimos años (Fulford, B., Thornton, T., & Graham, G., 2013). No en vano, profesionales de diferentes áreas de conocimiento (v. gr., psiquiatría, antropología, filosofía, psicología, neurociencia, biología…) han abordado en diálogo multidisciplinar algunas de las cuestiones más complejas desde un punto de vista onto-epistemológico que emergen de tan singular objeto de estudio.


En breve enumeración, podríamos destacar de la mano de Peter Zachar y Kenneth Kendler preguntas que velis nolis se encuadran en el marco de la filosofía de la psiquiatría:


“whether classifications should refer to natural kinds, social constructs, or practical kinds; whether the discovery of real characteristics offers a solution for making nosological progress; whether the attributions of disorder status can be fully naturalized or must also utilize normative assumptions; and the inherent, yet tenuous, role that hidden or latent variables have played in medical classification” (2017, p. 52).

En esta entrada, centraremos nuestro breve acercamiento a la filosofía de la nosología en 3 modelos que conceptualizan de forma distinta la realidad del objeto de estudio y clasificación de la nosología psiquiátrica (el trastorno mental).

Harmful dysfunction (J. Wakefield).

Jerome Wakefield ha desarrollado un modelo de trastorno mental que combina rigurosidad teórico-experimental y reflexión conceptual. Según Wakefield, el trastorno mental es un concepto híbrido cuya construcción requiere de (A) un componente factual que hace referencia a una función natural de un órgano o de un mecanismo, y de (B) un componente valorativo (perjudicial-dañino) que especifica el posible daño resultante.

Respecto al primer factor, existe una disfunción cuando un mecanismo interno es incapaz de realizar alguna de sus funciones naturales, entendiendo ésta como un efecto del órgano o del mecanismo que interviene en la explicación de la existencia, la estructura o la actividad del órgano o del mecanismo. Según Wakefield, si bien la disfunción es un concepto científico puramente factual,  “discovering what in fact is natural or dysfunctional (and thus what is disordered) may be extraordinarily difficult and may be subject to scientific controversy, especially with respect to mental mechanisms, about which we are still in a state of great ignorance” (1992, p. 383).

El segundo factor posibilita incorporar la variante contextual al constructo. Defiende el autor (1992) que una disfunción no es suficiente per se para ser identificada y/o clasificada como trastorno. Para clasificarla como tal debe causar un daño significativo a la persona en las circunstancias ambientales actuales y de acuerdo con los estándares culturales actuales (criterio valorativo). Por lo tanto, el modelo de Wakfield exige dos condiciones de estricto cumplimiento para identificar una realidad X como trastorno mental. El problema conceptual que se advierte al explorar el objeto conceptual del profesor de la Universidad de Nueva York es que el propio factor factual (disfunción) presenta –tal y como está modelizado- una naturaleza híbrida:


“Yet not only is disorder a hybrid concept comprising a factual component and a value component, dysfunction is so as well. To say that a mechanism is dysfunctional is not only to specify its state. It also implies that things are not as they ought to be, and ought-statements are inescapably normative” (McNally, 2001, p. 313).

Practical Kinds (Peter Zachar).

El modelo de tipos prácticos (Zachar, 2014) puede ser interpretado como un modelo pragmático que se erige sobre una idea de claro sesgo instrumentalista (técnico-aplicado): las clasificaciones psiquiátricas están condicionadas por el abordaje de múltiples (y en ocasiones incompatibles) objetivos; ergo, la selección de una determinada clasificación no depende tanto de su posible validez (su relación conceptual y epistémica con el mundo) sino de la necesidad de compensar las significativas diferencias que existen entre estos objetivos. Por lo tanto, al descubrimiento de los hechos de la realidad hay que añadir de forma obligada las metas, propósitos y prioridades que determinan como sesgo definitorio cómo clasificarlos:

“These goals include (…) measurement priorities (selecting indicators that are both sensitive and specific), professional priorities (distinguishing good from bad therapy responders), economic priorities (not treating conditions that will remit on their own), and sociopolitical priorities (reducing stigmatization)” (Zachar, 2014, p. 154-155).

El instrumentalismo plus pragmatismo que porta el modelo de las clases prácticas provoca un distanciamiento no filosóficamente legitimado de la realidad, debido a que un constructo cuyo objetivo epistémico primario (nosología psiquiátrica) consiste en alcanzar un ajuste válido a la realidad se condiciona a objetivos secundarios cuya guía de actuación –en muchas ocasiones- de exigencias científicas. 

Homeostatic Property Clusters (Richard Boyd).

La modelización de clase natural que ha alcanzado -en el discurso nosológico reciente- una aceptación más vigorosa en aquellos autores adscritos a los presupuestos del realismo científico es la noción de clústeres de propiedades homeostáticas (HPCs) del filósofo de la ciencia Richard Boyd (1989, 1991). Boyd parte de los presupuestos básicos del realismo científico para cimentar su defensa en el razonamiento abductivo qua inferencia a la mejor explicación: “en un sentido muy amplio, la abducción es el proceso de razonamiento mediante el cual se construyen explicaciones para observaciones sorprendentes, esto es, para hechos novedosos o anómalos” (Vega y Olmos, 2011, p.17). En una aproximación epidérmica a los principios del realismo científico[1] señalaríamos como pilares básicos de su núcleo fundacional los siguientes asertos: (i) La realidad es ontológicamente independiente de la actividad cognitiva del sujeto cognoscente; (ii) La verdad es una relación semántica entre el lenguaje y la realidad; (iii) Los conceptos de verdad y falsedad son en principio aplicables a todos los productos conceptuales de la actividad científica: leyes, modelos, teorías…; (iv) La verdad es un objetivo esencial de la actividad científica; y (v) La verdad no es fácilmente accesible o reconocible.

En la modelización de Boyd, una clase es definida “by a set of properties that vary somewhat among its members, although causal mechanisms make it the case that the properties are more or less jointly instantiated” (Murphy, 2013, p. 973).

A partir de la aceptación de la inferencia a la mejor explicación, Boyd colige que del éxito de un razonamiento inductivo se sigue la defensa teórica (ex hipótesis) de la existencia de mecanismos causales subyacentes que provocan-generan la agrupación de propiedades. Al explorar las inducciones exitosas estamos acercándonos de forma indirecta a los mecanismos casuales responsables de las características de los tipos naturales: “The mechanisms, we might say, leave an identifiable causal signature in the world” (Murphy, 2013, p. 973). El conceptualismo que se advierte en la propuesta de Boyd posibilita que las clases qua objetos conceptuales construidos por el conocimiento científico sean perfectibles; es decir, pueden ser modificadas (a) o bien ante la presencia de nuevas evidencias vía observación, (b) o bien cuando las inferencias fracasa (Boyd 2000). Por lo tanto, las clases naturales en el dictum de Boyd “son conjuntos de entidades que comparten un grupo de propiedades proyectables, que se basan en la homeostasis de mecanismos causales; entendidos como cualquier cosa que causa un agrupamiento repetido de propiedades (Garcia, et al., 2016, p. 39).

La aplicación del modelo de Boyd al análisis de la nosología psiquiátrica ha sido estudiada de forma detallada por diversos autores (Zachar, 2014; Murphy, 2013; Parnas, 2010, etc.). En este punto del discurso, resulta necesario reconocer que la realidad del objeto psiquiátrico es multifactorial; tan significativo hecho, exige la exploración e identificación de distintos mecanismos (multi e inter)causales vía investigación científica (ciencia básica) para configurar una clasificación realista que permita representar el objeto de estudio evitando tanto la hipertrofia/inflación patológica (incluir en la clase natural estados o procesos que no corresponden a la realidad conceptualizada al obviar los mecanismos causales) como la falacia del conjunto vacío o de las clases únicamente artificiales (identificar como único mecanismo causal de la patología psiquiátrica el constructivismo social).

Tras la evaluación de los 3 modelos aquí descritos, juzgamos que la defensa de un acercamiento realista (científicamente mediado) a la nosología psiquiátrica exige la aceptación de la clase natural (en su sentido débil) como clave conceptual-epistemológica que debe fundamentarse ontológicamente a través de la identificación de los mecanismos causales que intervienen -vía procesos legaliformes- en todos los niveles de la realidad que están implicados en la emergencia del hecho psiquiátrico:

“we must climb up and down the whole levels staircase, from molecule to cell to organ to central nervous system. No knowledge of mechanism, neither understanding nor control” (Bunge, 2004, p. 206). 

Nuestra defensa de la clase natural como garante de la cientificidad de la psiquiatría se fundamenta a fortiori en el realismo científico. La tríada mecanismo causal-propiedad-legalidad exige la exploración de los mecanismos neuropsicológicos plus biosociales que están implicados en la emergencia de propiedades mentales legalmente relacionadas; y cuya agrupación conceptual nos permitiría modelizar los trastornos mentales qua clases naturales en el sentido de clústeres de propiedades homeostáticas.


Boyd, R. (1989). What realism implies and what it does not. Dialectica 43:5–29

Boyd, R. (1991). Realism, anti-foundationalism and the enthusiasm for natural kinds. Philos. Stud. 61:127–48.

Bunge, M. (2004). How does it work? The search for explanatory mechanisms. Philosophy of the social sciences34(2), 182-210.

Fulford, K. W. M., Davies, M., Gipps, R., Graham, G., Sadler, J., Stanghellini, G. and Thornton, T. (eds.) (2013). Oxford Handbook of Philosophy and Psychiatry. Oxford: Oxford University Press.

García, J., Hernández, P., Martínez, M., y Soto, R. (2016). Clases naturales en la neurociencia cognitiva: la controversia continúa. Metatheoria. 8(2), 37-50.

McNally, R. J. (2001). On Wakefield’s harmful dysfunction analysis of mental disorder. Behaviour research and therapy39(3), 309-314.

Murphy, D. (2013). The Medical Model and the Philosophy of Science. En Fulford, K. W. M., Davies, M., Gipps, R., Graham, G., Sadler, J., Stanghellini, G. and Thornton, T. (Ed.) Oxford Handbook of Philosophy and Psychiatry (pp. 966-986).Oxford: Oxford University Press.

Vega, L., y Olmos, P. (Ed.). (2011). Compendio de lógica, argumentación y retórica. Madrid: Trotta.

Wakefield, J.C. (1992). The concept of mental disorder: on the boundary between biological facts and social values. Am. Psychol. 47:373–88

Zachar, P. & Kendler, K. (2017). The Philosophy of Nosology. The Annual Review of Clinical Psychology, 13:49–71.

Zachar, P. (2014). A Metaphysics of Psychopathology. Cambridge: MIT Press.


[1] M. Devitt, R. Giere, M. Bunge, W. Sellars, R. Boyd, K. Popper, I. Niiniluoto, R. Tuomela, etc.

Y Chomsky modelizó -biológicamente- el lenguaje.

Como sucede –si realizamos una revisión historia con la necesaria exhaustividad- en todas las disciplinas científicas independientemente de su objeto de investigación, el estudio del lenguaje ha experimentado cambios notables de perspectiva (o paradigma si empleamos la célebre terminología kuhniana) a lo largo de su proceso epistémico de desarrollo y consolidación. La perspectiva sobre la que va a pivotar la construcción argumental de esta entrada se define en claro y preciso aserto en las siguiente líneas: “Here we will keep to the first sense: human language, a particular object of the biological world. The study of language, so understood, has come to be called the biolinguistic perspective” (Berwick & Chomsky, 2016, p. 62).


La perspectiva biolingüística de Noam Chomsky.

Si bien la modelización biológica (qua órgano, facultad, sistema, etc.) del lenguaje podría resultar un espacio epistemológico común que no admite en su versión más general objeciones sólidas, resulta oportuno recordar que existieron otras perspectivas que –de alguna forma- posibilitaron la emergencia del enfoque actual (Benítez-Burraco, 2016). Como clarificador ejemplo, proponemos la construcción estructuralista del célebre lingüística suizo Ferdinand de Saussure donde la ciencia del lenguaje -además de tener la capacidad de delimitarse a sí misma como disciplina- proyectaba como objetivos nucleares “describir sincrónica y diacrónicamente las lenguas, y tratar de postular leyes generales de organización y evolución de los sistemas lingüísticos” (Benítez-Burraco, 2016, p. 412). Es decir, el área de la realidad que ensayaba explorar el foco examinador de la lingüística estructuralista no era ni el lenguaje (language) ni el habla (parole), la primacía onto-epistemológica recaía sobre el hecho social compartido por la comunidad de hablantes: la lengua (langue) (Benítez-Burraco, 2016). La perspectiva biolingüística se distancia de la primacía epistémica de la lengua para aproximarse al lenguaje qua órgano-facultad que de forma similar a como sucede con otros sistemas (v. gr., sistema digestivo o visual) pertenece a la categoría sistema biológico y por lo tanto resulta pertinente estudiarlo (a) como subsistema de un organismo complejo y (b) en su interacción con otros subsistemas que posibilitan la vida de los miembros de nuestra especie; ya que “as far as we know then, apart from pathology the language faculty is uniform in the human population” (Berwick and Chomsky, 2016, p. 63).

            Si nos preguntamos por la emergencia conceptual de la perspectiva biolingüística son dos las figuras intelectuales –al margen de otros autores con menor protagonismo en la literatura oficial- que no podemos eludir: Noam Chomsky y Eric Lenneberg (Boeckx, 2013). A pesar de que el término halla su origen en los años 70, las raíces epistémicas comienzan su peregrinaje intelectual en los años 50; intervalo temporal en el que la escuela conductista constituía el patrón oro teórico-experimental tanto en la lingüística como en la psicología básica. Los dos autores realizan en aquel momento sendos movimientos revolucionarios que posibilitan el preludio teórico de la perspectiva biolingüística: Chomsky publica (1959) una revisión crítica de la obra de Skinner Verbal Behavior “which effectively put an end to the dominance of the behaviorist paradigm in psychology”; y Lenneberg ofrece a la comunidad científica su eminente y ya clásica obra Biological foundations of language donde se detallan, analizan y explican un número significativos de pruebas teórico-experimentales “ in favor of a biological substrate for the uniquely human capacity for language acquisition” (Boeckx, 2013, p. 2).

Este breve acercamiento a algunos pilares básicos de la biolingüística nos permite (i) situar nuestro espacio de análisis y construcción argumental en un área epistémica definida y (ii) proseguir nuestro desarrollo teórico a través del abordaje del lingüista que de forma más sólida, fructífera, crítica y estimulante ha representado velis nolis la perspectiva señalada: Noam Chomsky.

La modelización bio-cognitiva de Noam Chomsky.

El titánico proyecto del lingüista estadounidense se inició en los años 50 con la construcción de la gramática generativa (Chomsky, 1959), modelo primigenio que se centraba –principalmente- en demostrar que tanto la regularidad como la infinitud de la sintaxis del lenguaje natural –dos características tan esenciales como singulares- podían ser conceptualizadas vía modelos gramaticales precisos, dotados de procedimientos recursivos. No en vano, la idea fundacional –las lenguas naturales implican funciones generativas recursivas (Chomsky, 2002)- no solo se ha mantenido como clave de bóveda del titánico proyecto si no que el desarrollo del modelo la ha priorizado con tan insistente énfasis que en el esquema chomskiano los conceptos lenguaje y recursión[1] han sido igualados -según nuestro criterio- en exagerada y no justificada equivalencia “Language is therefore based on a recursive generative procedure that takes elementary word-like elements from some store, call it the lexicon, and applies repeatedly to yield structured expressions, without bound” (Berwick & Chomsky, 2016, p. 66). Independientemente de la pertinencia teórico-experimental de esta caracterización reduccionista del lenguaje, consideramos que el gran acierto del proyecto biolingüística chomskiano radica en (i) centrar la investigación en un objeto natural, (ii) posibilitar la interacción de la lingüística con otras disciplinas (v. gr., psicología, biología, genética, neurociencias, etc.), y (iii) generar un marco teórico-experimental que combina modelización y contrastación empírica (Chomsky, 2002).

Una de las guías metodológicas que ha contribuido notablemente al estudio del lenguaje -en general- y al problema empírico de la adquisición del lenguaje -en particular- ha sido la nuclear diferencia que incorporó a la ciencia lingüística Chomsky entre la adecuación descriptiva y la adecuación explicativa; según el autor estadounidense, una teoría que aspire a modelizar el lenguaje humano de forma científicamente genuina debería satisfacer las dos condiciones:

The grammar of a particular language satisfies the condition of descriptive adequacy insofar as it gives a full and accurate account of the properties of the language, of what the speaker of the language knows. To satisfy the condition of explanatory adequacy, a theory of language must show how each particular language can be derived from a uniform initial state under the `boundary conditions´ set by experience. In this way, it provides an explanation of the properties of language at a deeper level.

(Chomsky, 2000, p. 7).

La tensión conceptual que se genera en la construcción científica de todo modelo que ensaye satisfacer tanto la adecuación explicativa (requisito más elevado) como la adecuación descriptiva se aprecia en perspicua y paradigmática muestra en el desarrollo teórico-experimental del modelo lingüístico chomskiano. En las siguientes líneas, nos centramos únicamente –por motivos de espacio- y en breve análisis –por motivos temáticos- en los tres hitos conceptuales que posibilitan una visión de conjunto de la biolingüística del autor estadounidense:

  • La Gramática Universal (GU):

La aproximación cognitiva plus internalista generada por Chomsky como crítica a los modelos tanto estructuralistas como conductistas defendía que la adquisición ontogénica –propia del individuo singular- del lenguaje puede ser definida como la transición desde el estado mental inicial (nacimiento del individuo) al estado cognitivo posterior que corresponde al conocimiento nativo de una lengua natural (Chomsky, 2002). Ese estado inicial –desde la fundamental premisa de la pobreza del estímulo– presenta un sistema cognitivo estructurado cuya teoría recibe el nombre de Gramática Universal; es decir, GU expresa –desde una perspectiva lingüística- las propiedades universales de las lenguas naturales y –desde una perspectiva cognitiva- los elementos necesarios de la dotación biológica de la especie que determina la facultar lingüística innata:

By definition, the theory of an I-language is its generative grammar, and the general theory of I-languages is Universal Grammar (UG), adapting traditional notions to a new context. UG is the theory of the genetic component of the faculty of language, the capacity that makes it possible to acquire and to use particular I-languages

(Berwick and Chomsky, 2016, p. 90).

Por lo tanto, la hipótesis empíricamente contrastable que guía GU sentencia que los individuos de nuestra especie presentamos una dotación biológica para el lenguaje que nos predispone a adquirir cualquier lengua humana a la que seamos expuestos en nuestra niñez.

  • Principios y Parámetros (PyP):

En los años 70 el modelo internalista, cognitivo y generativo de Chomsky experimentó una modificación tan innovadora como fructífera: la GU se conceptualizó como un sistema de principios y parámetros (PyP). Si bien en la modelización primigenia la GU era una metateoría gramatical (Chomsky, 2002), en el nuevo enfoque la GU constituye un sistema de principios universales; algunos de los cuales contienen parámetros (puntos de elección que pueden fijarse en un número limitado de formas –produciendo las diferentes lenguas-). Ergo, una lengua particular X puede ser interpretada como una expresión directa de la GU bajo conjuntos de valores paramétricos particulares y distintivos:

The P&P approach is based on the assumption that languages consist of fixed and invariant principles connected to a kind of switchbox of parameters, questions that the child has to answer on the basis of presented data in order to fix a language from the limited variety of languages available in principle to determine a probability distribution over languages resulting from a learning procedure for parameter setting.

(Berwick and Chomsky, 2016, p. 68-69)

            Desde las premisas del modelo PyP, la adquisición de una lengua natural X equivale a fijar los parámetros de la GU basándose en la experiencia (el estímulo de la comunidad lingüística del sujeto). El desarrollo exitoso de los modelos paramétricos fue posibilitado por un hallazgo empírico de innegable relevancia: la uniformidad de las lenguas humanas (Chomsky, 2002). Este novedoso enfoque posibilitó –según Chomsky (2000, 2002)- (i) ofrecer una solución teórico-experimental al problema lógico de la adquisición del lenguaje y (ii) resolver –con ciertas garantías- la tensión conceptual entra la adecuación descriptiva y la adecuación explicativa.

  • El Programa Minimalista (PM):

La pregunta especulativa que originó en los años 90 el desarrollo del conocido como Programa Minimalista está directamente relacionada con el diseño de la facultad del lenguaje: ¿podría el lenguaje ser perfecto? (Chomsky, 2002). El estado de éxito científico que se había generado en el marco de la ciencia del lenguaje promovió la idea de simplificar la GU, “to formulate an ideal case and ask how closely language approximates the ideal, then seeking to overcome the many apparent discrepancies. This effort has been called the Minimalist Program, a seamless continuation of the study of generative grammar from its origins” (Berwick & Chomsky, 2016, p. 94).

A partir de (i) la asunción del diseño óptimo plus (ii) la búsqueda de la operación cognitiva más simple y propiamente lingüística, el PM identifica el ensamblaje (merge) como la propiedad lingüística par excellence debido a que “is as simple as logically posible” (Berwick & Chomsky, 2016, p. 111). No en vano, según el autor estadounidense, la operación de recursividad puede ser reducida al ensamblaje; definida (2016) como una operación diádica que selecciona dos objetos sintácticos como argumentos y devuelve/produce la combinación de los dos elementos como uno solo y nuevo objeto sintáctico, sin modificar la naturaleza de los objetos sintácticos iniciales, “in the simplest case, Merge is just set formation (Berwick & Chomsky, 2016, p. 112). Tan simple y eficaz operación cognitiva es capaz de construir recursivamente una serie infinita de representaciones estructuradas de manera jerárquica.

El PM combina la defensa de un diseño óptimo con la búsqueda de una economía representativa que en su tesis más fuerte defiende (a) que los principios del lenguaje están definidos por una operación computacional eficiente y (b) que “language keeps to the simplest recursive operation designed to satisfy interface conditions in accord with independent principles of efficient computation” (Berwick & Chomsky, 2016, p. 71). 

Si bien el reduccionismo cognitivo-computacional del modelo chomskiano plantea dificultades conceptuales de singular y compleja relevancia para el estudio evolutivo del lenguaje (el por qué y el para qué de su emergencia), consideramos que –a pesar de estos problemas teórico-experimentales- ofrece una aproximación sólida y coherente a su campo de análisis que permite conceptualizarlo qua objeto natural (facultad)no arbitrario que puede ser estudiado desde áreas científicas interrelacionadas (v. gr., neurociencia, biología, ciencias cognitivas).


[1] Ver Pinker (2013) para una crítica detallada.

Benítez-Burraco, A. (2016). Biolingüística: a la espera de nuevos datos (biológicos) para resolver viejas controversias (lingüísticas). Ludus Vitalis, 17(32), 411-418.

Berwick, R.C. & Chomsky, N. (2016). Why Only Us. Cambridge, MA: MIT Press.

Boeckx, C. (2013). Biolinguistics: forays into human cognitive biology. Journal of Anthropological Sciences, 91, 1-28.

Chomsky, N. (2002). On nature and language. Cambridge: University Press.

Chomsky, N. (2000). New horizons in the study of language and mind. Cambridge University Press: New York.

Pinker, S. (2013). Language, Cognition, and Human Nature: Selected Articles . New York, NY: Oxford University Press.

¿Cuánta carga de verdad portan los datos? Filosofía y neurociencia

Las disciplinas clínicas nutren sus mecanismos decisionales de los resultados-conclusiones de la investigación científica. La medicina basada en la evidencia (pruebas empíricas) apela a la autoridad de los datos para defender la validez de las diferentes prácticas que configuran su actuación (v. gr., diagnosis, tratamiento, prevención, pronóstico…). En esta entrada nos centramos en la neurociencia –como caso particular de investigación básica- para explorar la carga de verdad que portan los datos y generar un pensamiento crítico ante aquellos argumentos científico-clínicos que atribuyen al dato un estatus epistémico cercano al dogma en un ejercicio de acientificidad que puede adulterar negativamente la práctica clínica.   


La primera pregunta que nos interesa responder en este apartado tiene una formulación muy sencilla: ¿qué estudia la neurociencia? El contenido de la respuesta se presenta  -sin embargo- tan complejo como problemático.

Defendemos grosso modo que la neurociencia estudia hechos reales. No en vano, tan novedosa disciplina dirige todo su arsenal teórico-experimental hacia sistemas específicos de la realidad; es decir, hacia entidades o cosas físicas concretas. Al igual que sucede con el resto de disciplinas científicas, la neurociencia no tiene un acceso directo (privilegiado) a su “materia de exploración”. Su acceso es indirecto, mediado siempre por la construcción de un potente aparato conceptual constituido por teorías, modelos e hipótesis. Tal condición posibilita que el conocimiento neurocientífico sea perfectible, replicable y contrastable por medio del método científico. Por lo tanto, la neurociencia asume como postulados epistemológicos nucleares que (a) los hechos que estudia son ontológicamente independientes, no son construidos por su actividad científica, y (b) que tales hechos para convertirse en objeto de estudio deben ser (i) hipotetizados, (ii) explorados-observados-experimentados empíricamente y (iii) representados-modelados a través de construcciones científicas.

Estos sistemas específicos de la realidad que adquieren el estatus de objeto de estudio de la neurociencia son entidades neurobiológicas producto de los procesos legaliformes de la evolución, cuya existencia es independiente (mind-independence) de los objetos conceptuales que se emplean para representarlos. Además del estudio de las entidades per se (estructura neuroanatómica, ontofilogénesis…) y sus subsistemas (áreas corticales, áreas subcorticales…), a la neurociencia cognitiva le interesan –como singular y fascinante objeto de investigación- los procesos que emergen de la actividad de los cerebros: los procesos neurocognitivos qua hechos reales.

Con el objetivo de aportar claridad y precisión conceptual a nuestro discurso, defendemos -de la mano del filósofo de la ciencia Mario Bunge- que un proceso es “una secuencia temporal y legalmente ordenada de varios cambios de estado (acontecimientos) de una entidad material determinada”. En el marco epistemológico de la ciencia, los procesos –la mayor parte de ellos- son formulados mediante hipótesis previas debido a que no es posible registrarlos-observarlos-identificarlos directamente en el estudio de la realidad. De forma equivalente, los procesos neurocognitivos (procesos atencionales, mnésicos, ejecutivos, etc.) son formulados hipotéticamente y portan una elevada carga teórica que está recogida en los múltiples modelos neuropsicológicos que los representan. Por lo tanto, resulta coherente afirmar que los procesos neurocognitivos son -de la misma manera que sucede con los sistemas neurobiológios (cerebro)- hechos reales cuya existencia es independiente de la actividad científica.

La neurociencia cognitiva ha generado en las últimas décadas un cantidad ingente de investigación que pivota principalmente en torno a las funciones cognitivas superiores. Como participantes activos de este corpus epistémico hemos asumido (a) que estas funciones son un producto evolucionado de nuestros cerebros, (b) que su materialización empírica acontece en forma de procesos neurocognitivos que emergen de la actividad de cierta regiones cerebrales y (c) que las modernas técnicas de neuroimagen posibilitan su estudio-observación con una aproximación espacio-temporal inimaginable en épocas pretéritas.

Una vez aceptado que tales procesos son hechos reales, la segunda pregunta que nos formulamos emerge del tercer aserto: ¿son directamente observables estos hechos?; en una formulación más directa, ¿son directamente observables los procesos neurocognitivos?

Antes de embarcarnos en la elaboración argumental de la respuesta, definamos con la mayor precisión posible el concepto observación. En términos de metodología científica, la observación consiste en una forma de percepción sistemática y estructuralmente guiada (vía método científico)  donde se combinan dos condiciones-principios básicos que posibilitan diferenciar la observación científica de la percepción bruta: (a) intencionalidad (no se observa indiscriminadamente) y (b) fundamentación teórica (exige la activación de algún contenido teórico previo por mínimo que sea). Defendemos que en el caso de los procesos neurocognitivos (mnésicos, atencionales, perceptivos, ejecutivos…) la observación es necesariamente indirecta debido a que estos procesos son qua hechos reales una inferencia hipotética que se constituye mediante la interacción entre datos de observación y modelos neuropsicológicos. La observación directa exige la posibilidad de que el objeto de estudio sea perceptible, hecho que no sucede con los procesos neurocognitivos: al igual que nadie ha percibido la velocidad (percibimos objetos que se desplazan), nadie ha percibido un proceso neurocognitivo.

La filosofía y la historia de la ciencia nos recuerdan que la observación directa de un hecho no es condición sine qua non para postular su existencia real; no en vano, la ciencia postula la existencia de un gran número de entidades, procesos, propiedades etc., que no han sido directamente observadas. Un ejemplo paradigmático que nos  proporciona la física de partículas es el neutrino, entidad elemental postulada por el físico W. Pauli por necesidades puramente explicativas: el desequilibrio de energía observado en ciertos procesos radiactivos. Si bien la propia naturaleza del objeto no posibilitó observarlo directamente, la comunidad científica anunció la confirmación de su existencia gracias a la evidencia experimental generada por el formidable desarrollo de la tecno-ciencia.  De forma análoga a la física, la neurociencia cognitiva se ha ido aproximando en las últimas décadas al registro in vivo de procesos no directamente observables gracias a la emergencia de técnicas de neuroimagen extremadamente complejas. Tales técnicas hacen uso -debido al carácter inobservable de su objeto de estudio- de dos elementos tan singulares como imprescindibles: indicadores e inferencias.

Para comprender el papel que juegan los indicadores y las inferencias teóricas en la neuroimagen analicemos brevemente algunos supuestos básicos que porta la RM funcional; técnica que ha revolucionado el estudio de la actividad cerebral. Existen tres hechos relacionados directamente con el cerebro cuya interrelación se defiende vía inferencia como base teórico-explicativa de la técnica referida: (A) procesos neurocognitivos, (B) actividad neuronal en  áreas cerebrales y (C) flujo sanguíneo cerebral. El presupuesto básico de la RM funcional afirma que el flujo sanguíneo cerebral (aumento del consumo de oxígeno transportado por la sangre) es un indicador fiable de la actividad cerebral (proceso neuronal). Se infiere -inicialmente- que existe una relación determinada y constante entre B y C porque todo cambio registrado en C pude ser interpretado como un cambio determinado en B. Se infiere -posteriormente- que si A emerge directamente de B, entonces (i) A y C están relacionados y (ii) los cambios en C nos informan de cambios en A. El análisis de la RM funcional permite afirmar que la observación indirecta de los procesos neurocognitivos exige la presencia de un marco teórico-inferencial robusto. Cuanto más precisos y completos sean los modelo neurocientíficos sobre las funciones cognitivas,  más precisas, inequívocas y válidas serán las inferencias que nos permiten identificar indicadores fiables para la observación de los procesos neurocognitivos. Para lograr tal objetivo consideramos tan necesaria como ineludible la convergencia multidisciplinar (neurología, neuropsicología, neurorradiología, etc.).

La tercera y última de las preguntas con la que finalizamos este apartado dice así: ¿las imágenes que nos ofrecen estas nuevas técnicas -en sus diferentes presentaciones y formatos (v. gr., un corte sagital de una RMF, una angiografía de troncos supraaórticos en RM, series axiales en T2 y FLAIR, etc)- son datos científicos per se?

Como hemos venido haciendo a lo largo del epígrafe, proponemos -inicialmente- una definición de dato científico. Defendemos que el producto de una observación es un dato científico si (a) se formula “como una proposición singular y existencial que expresa algunos rasgos del resultado de la acción de observar” y (b) puede ser esgrimido como elemento de prueba falible a favor o en contra de una hipótesis determinada (clínico-diagnóstica, de investigación…). Por lo tanto, el dato científico remite ineludiblemente a un marco teórico previo: ya sea al informar un TAC, al identificar áreas de activación en una RM funcional, al medir un área de hipointensidad en una RM, etc., necesitamos estar siempre equipados con un robusto corpus teórico-conceptual que permita dotar de significado científico al producto de la observación.

A diferencia de los hechos reales que son representados por nuestro modelos teóricos sobre el mundo , los datos son construidos por la actividad científica a partir de (i) la información recogida en el acto de observar-experimentar la realidad y (ii) la manipulación metodológica y replicable de esa información a través de complejas técnicas matemático-estadísticas. El arduo proceso de transformación de una secuencia de neuro-imágenes en un dato científico exige un complejo conocimiento previo (neuroanatómico, estadístico, neuropsicológico…) plus un contexto preliminar bien definido (clínico, teórico-experimental…).

Como conclusión defendemos que al igual que sucede en las demás disciplinas científicas, en la neurociencia no hay dato científico probatorio -evidencia- libre de teoría. Las técnicas de neuroimagen proporcionan (al igual que lo hacen otras epistemes neurocientificas -v. gr., neuropsicología, genética, neurofisiología, etc.-) información transformable en dato científico: la potencia confirmatoria de éste dependerá de la solidez, coherencia y validez de los modelos teóricos de la neurociencia; de la misma forma, éstos se aproximarán con mayores dosis de verosimilitud a los hechos a medida que los datos científicos confirmen -o refuten- las hipótesis formuladas sobre las entidades (cerebros) y los procesos que emergen de su actividad (los procesos neurocognitivos qua hechos reales).

Los problemas inversos y el diagnóstico clínico


“Se trata de un problema muy arduo y temo que espera usted demasiado al pedirme que lo solucione. El pasado y el presente se hallan dentro del campo de mis investigaciones, pero lo que una persona vaya a hacer en el futuro es algo muy difícil de prever” (Sherlock Holmes).

Con estas palabras respondía el célebre y genial personaje de Sir Arthur Conan Doyle ante las cuestiones planteadas por su inseparable Watson sobre algunos hipotéticos escenarios futuros en la obra The Hound of the Baskervilles. Para los clínicos, la especulación sobre escenarios futuros en relación al proceso de enfermedad y a la hipotética eficacia de una posible intervención para modificar el curso “natural” se inserta en el concepto pronóstico. Si bien compartimos el juicio de Holmes sobre la dificultad de prever los hechos y/o evoluciones futuras, defendemos -en esta entrada- que el diagnóstico clínico (diagnosis) presenta por su singular naturaleza lógica tanta o más dificultad que la proyección de escenarios futuros.

Continue reading «Los problemas inversos y el diagnóstico clínico»

La conceptualización de lo mental en el paradigma DSM

En las siguientes líneas, vamos a dirigir nuestro foco de análisis –en movimiento analítico- exploratorio- hacia el Diagnostic and Statistical Manual of Mental Disorders (DSM-5): manual diagnóstico de referencia (principalmente en Estados Unidos) que ofrece en sus más de novecientas páginas un extenso listado de categorías nosológicas a partir de las cuales se lleva a cabo el diagnóstico y la clasificación de los trastornos mentales.

Continue reading «La conceptualización de lo mental en el paradigma DSM»