Hace casi veinte años, el filósofo Nick Bostrom, de Oxford University, escribió un artículo que alcanzó una fama inusual para un artículo académico. En él Bostrom sostiene que existe la posibilidad de que actualmente estemos viviendo dentro de una simulación computacional. A su vez, este argumento ha sido difundido hacia el público en general por personalidades del mundo de la ciencia y la tecnología tales como Elon Musk y Neil deGrasse Tyson.

Bostrom no se refiere a simulaciones como las de la película The Matrix, en la que millones de personas están conectadas a una computadora que estimula su cerebro para crear un mundo de sueños. En este tipo de simulación es el cerebro (y el resto del sistema nervioso) el que genera una realidad virtual, tras ser estimulado adecuadamente por la computadora. La logística que requiere ese tipo de simulación hace que sea implausible que actualmente estemos viviendo en una de ellas.

El argumento de Bostrom, por el contrario, no se centra en simulaciones que parten de un substrato biológico, sino que el substrato de la conciencia es el hardware mismo de la computadora. Eso es justamente lo que le da plausibilidad al escenario.

Bostrom parte de dos premisas, y a partir de ellas obtiene una conclusión que abre tres escenarios posibles. La primera premisa es la de la inteligencia artificial. La idea es que la conciencia humana no depende esencialmente de una base biológica, sino que puede ser generada (tal vez no ahora pero sí en el futuro) por una base no biológica, tal como un procesador de silicona. Esta tesis implica que es posible desarrollar máquinas que no solo actúen como los humanos, sino que posean una vida mental, un mundo interior. La segunda premisa es que, dado lo que conocemos actualmente acerca de las leyes de la naturaleza, es posible (tal vez no ahora pero sí en el futuro) crear computadoras que sean capaces de generar mundos simulados que reproduzcan el mundo real con niveles de detalle suficientes como para que sean indistinguibles del mundo real.

En base a estas dos premisas, Bostrom razona de la siguiente manera. Si es posible crear conciencias en base al hardware de una computadora, entonces es posible también crear todo un universo para que dichas conciencias interactúen entre sí. Una civilización suficientemente avanzada podría crear computadoras que simulen miles de millones de conciencias interactuando en un mundo puramente virtual, pero que sea indistinguible del nuestro. Llamemos M 0 al mundo real, en el que vive dicha civilización avanzada, y M 1 al mundo en el que vive la civilización simulada.

Si ese mundo M 1 es indistinguible del nuestro, entonces para ellos también será posible crear una simulación. Así se origina el mundo M 2 , y luego M 3 , M 4 , etc., en una cadena que se puede prolongar casi infinitamente. En esa situación, existiría solo un mundo real, y una cantidad enorme de mundos simulados. Entonces, por un principio básico de indiferencia, nuestro mundo no tendría por qué ser el mundo real. Ya que existen tantos mundos simulados, las probabilidades de que nuestro mundo también sea simulado son altísimas. Si ese fuera el caso, nosotros seríamos una simulación de los ancestros de dicha civilización tecnológicamente avanzada, y técnicamente no estaríamos en el año 2021 sino muchos años después.

Ahora bien, hay dos escenarios que podrían bloquear esta situación. Por un lado, es posible que, dadas las características de la especie humana, no sea posible llegar al estado de civilización avanzado que permita crear estas sofisticadas simulaciones. La idea es que el avance de la tecnología va de la mano con el avance del poder bélico y las armas de destrucción masiva, y por lo tanto sea casi un hecho de que la civilización humana se destruya a sí misma antes de llegar a la madurez tecnológica. Si este fuera el caso, entonces las probabilidades de que actualmente estemos viviendo en una simulación serían muy bajas. El segundo escenario es que impedimentos morales, o simplemente apatía, hagan que dicha civilización tecnológicamente madura no esté interesada en crear simulaciones de sus ancestros. En este caso también sería poco probable que estemos viviendo en una simulación.

En resumen, de acuerdo a Bostrom, si aceptamos que es posible que substratos no biológicos generen conciencias similares a las humanas, y que es posible que las computadoras del futuro reproduzcan mundos enteros, entonces tenemos que aceptar como verdadera al menos una de las siguientes tres afirmaciones: o la humanidad se destruirá a sí misma antes de ser capaz de desarrollar estas tecnologías, o sí llegará al nivel en el que pueda desarrollar estas tecnologías pero no estará interesada en hacerlo, o vivimos en una simulación computacional.

Así que ya sabe, señor, señora. Cuando despierte en las noches asustado porque es bastante probable que el actual ministro de trabajo haya sido un senderista que capacitaba a otros senderistas en el arte de armar explosivos, recuerde que hay cosas peores en la vida. Por ejemplo, su entera vida y existencia podría estar ocurriendo en la computadora de un adolescente del futuro sentado en el sillón de su sótano comiendo doritos.

[En la web https://www.simulation-argument.com se puede encontrar el artículo original, así como una versión simplificada de tres páginas, y muchos otros recursos relacionados a este tema. Espero poder escribir una respuesta a este argumento en alguna de mis columnas siguientes]

 

Tags:

Bostrom, computadoras, Tecnología

Se repite con frecuencia que los grupos de WhatsApp son como cámaras de resonancia, donde una opinión se refuerza y las opiniones disidentes se ignoran o atacan. En las líneas que siguen quiero argumentar, siguiendo a la filósofa Jennifer Lackey, que esto, en sí mismo, no es algo negativo.

Imagine un grupo de WhatsApp de 30 personas discutiendo la efectividad de las vacunas contra el COVID-19. Llega un nuevo miembro del grupo señalando que las vacunas causan autismo, y no ofrece nada nuevo, sino que repite los típicos argumentos que vienen siendo refutados una y otra vez desde hace décadas. En este caso, la opinión disidente genera ruido, y lo más probable es que se la ataque o ignore.

Ahora bien, podría objetarse que el ejemplo descrito arriba no es bueno porque no sabemos nada de las características de los miembros del grupo: ¿Saben de lo que hablan? ¿Están bien informados? Es más, podría darse el caso de que los 30 hayan obtenido su información de una sola fuente, lo cual los convertiría realmente en una cámara de resonancia: es la opinión de esa fuente única la que los 30 repiten una y otra vez.

Pero esto tampoco es, en sí mismo, algo negativo. Si cada uno de los 30 entiende la información de esa fuente común y la adopta de manera crítica, tras someterla a un escrutinio cuidadoso, entonces no tiene nada de malo que los 30 coincidan. Es más, ya que es verdad que las vacunas son seguras, y falso que causen autismo, entonces es más bien una virtud el hecho de que estas 30 personas estén en el lado correcto en este tema. Y si una fuente es lo suficientemente clara e informada como para persuadir a 30 personas que la van a someter a un análisis riguroso, eso también merece evaluarse positivamente. Lo importante, como señala Lackey, no es tanto que las opiniones tengan orígenes independientes, sino que hayan sido asumidas de manera autónoma, es decir, de manera crítica y sin estar tratando de armonizar con el resto del grupo.

También podría objetarse que el problema del grupo de WhatsApp que he descrito es la falta de diversidad, y que esto se hace evidente en casos menos idealizados. No siempre va a suceder que todos los miembros del grupo tengan una opinión verdadera, o que todos la hayan adoptado críticamente. En el mundo real, sigue la objeción, las personas buscan agradarse unas a otras y tienden a repetir las opiniones de personas cercanas, buscando algo así como un sentido de pertenencia. Los grupos de WhatsApp tienden a ahogar las opiniones contrarias, independientemente de si estas son verdaderas o no. Siguiendo todavía la objeción, la idea es que, si fuera política del grupo estar abierto a opiniones diversas, estarían más vigilantes y así evitarían caer en el dogmatismo.

Pero aquí hay que separar dos cosas. Es cierto que un grupo donde todos los agentes son autónomos es una idealización, pero la pregunta que estamos analizando es si la falta de diversidad de opiniones en sí misma es algo negativo, y yo sostengo que no, pues lo importante es autonomía, y no diversidad. El párrafo anterior describe una situación en la que falta autonomía, por lo tanto, no sirve como contraejemplo a mi postura (que he tomado de Lackey). Y, crucialmente, la diversidad no puede suplantar a la autonomía. Un grupo polarizado tiene diversidad de opiniones, pero esto no lo hace más deseable.

El cliché de la diversidad de opiniones tiene su origen en la noción de que todas las opiniones son equivalentes, pero esto no es así, tal como ha quedado tristemente demostrado en esta pandemia, donde la desinformación ha costado muchas vidas.

[Referencia: Jennifer Lackey, ‘Echo Chambers, Fake News, and Social Epistemology’, En: S. Bernecker, A. Flowerree, y T. Grundmann (Eds), The Epistemology of Fake News, Oxford University Press (2021). DOI: 10.1093/oso/9780198863977.001.0001]
* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

Covid-19, WhatsApp

En el Perú existen personas que creen que la Organización Mundial de la Salud se ha asociado con el gobierno chino para conseguir que se apruebe la vacuna de Sinopharm, vacuna que en realidad sería no solo ineficaz sino perjudicial para la salud. La manera como varias personas se aferran a esta creencia clasifica bajo el rubro de teoría de la conspiración.

Para explicar qué es una teoría de la conspiración voy a usar la definición que la filósofa Giulia Napolitano presenta en su artículo ‘Teorías de la Conspiración y Aislamiento Evidencial’, que aparece en el libro La Epistemología de las Noticias Falsas, publicado hace unos meses por Oxford University Press.

Napolitano comienza aclarando un par de cosas. Primero, una conspiración ocurre cuando un conjunto de actores complota para conseguir una meta que los favorece, manteniendo ocultas sus intenciones. Segundo, no todas las teorías (es decir, las explicaciones) que plantean como hipótesis central la existencia de una conspiración merecen llamarse ‘teorías de la conspiración’. La diferencia tiene que ver con la actitud con la que aquellos que sostienen la teoría analizan la evidencia a favor o en contra. Es decir, la hipótesis de la conspiración puede manejarse de manera racional o de manera ‘conspiranoica’ (el criollismo es aporte mío).

Para Napolitano, una teoría de la conspiración propiamente dicha es aquella sostenida por alguien que es completamente impávido frente a la evidencia que desmiente dicha teoría. Es decir, alguien que ha conseguido aislar (insular) la teoría frente a cualquier posible evidencia contraria. Y, crucialmente, parte de la estrategia consiste en interpretar la evidencia contraria como si fuera evidencia a favor, porque supuestamente es parte del plan de los conspiradores crear dicha evidencia contraria con el fin de disuadir a aquellos que son capaces de ver las cosas como realmente son.

Podemos sacar dos ideas principales de la visión de Napolitano. Primero, llamar a algo teoría de la conspiración tiene siempre una connotación peyorativa. Una teoría que plantea la hipótesis de una conspiración no es necesariamente una teoría de la conspiración. Ser acerca de una conspiración es una condición necesaria, pero no suficiente, para calificar como teoría de la conspiración. Segundo, al llamar a algo ‘teoría de la conspiración’ estamos haciendo un juicio negativo sobre la actitud de aquellos que sostienen dichas hipótesis (los ‘conspiranoicos’). Dicha actitud consiste en ser completamente inmune a la evidencia contraria, e incluso interpretarla como si fuera evidencia a favor.

Apliquemos estas ideas al caso de Sinopharm. Si usted cree que el gobierno chino ha corrompido a la Organización Mundial de la Salud, y que eso explica por qué ‘una vacuna que no sirve’ fue aprobada, eso no necesariamente muestra que usted sea un conspiranoico. Pero si usted accede a los reportes de los numerosos estudios que prueban la efectividad de esta vacuna, y su conclusión es que los investigadores que han realizado dichos estudios, en Perú y otras partes del mundo, son parte del complot; y considera además que el hecho de que no se conozcan estudios que muestren la ineficacia de la vacuna de Sinopharm se debe a que el gobierno chino ha complotado con otros gobiernos a nivel mundial para reprimir dichos estudios, y que por lo tanto la ausencia misma de dichos estudios prueba que realmente existe una conspiración, entonces lo felicito: es usted un conspiranoico.

[Referencia: M. Giulia Napolitano, ‘Conspiracy Theories and Evidential Self-Insulations’, En: S. Bernecker, A. Flowerree, y T. Grundmann (Eds), The Epistemology of Fake News, Oxford University Press (2021). DOI: 10.1093/oso/9780198863977.003.0005]
* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

Fake news, Organización Mundial de la Salud, Sinopharm

A mediados de los cincuentas, ya era claro para la comunidad científica que el tabaco perjudicaba la salud. Muchos estudios, incluyendo algunos financiados (y diligentemente ocultados) por las propias compañías de tabaco, mostraban una relación causal entre fumar o estar en contacto con un fumador, y contraer cáncer, sobre todo cáncer de pulmón. Las compañías de tabaco usaron sus recursos millonarios para promocionar el puñado de estudios que divergía del consenso. Por ejemplo, promocionaron el trabajo de un genetista que pensaba que todos los cánceres eran hereditarios. Era un outsider realmente convencido de que ni el tabaco ni ningún otro factor ambiental podría causar cáncer, pero su trabajo fue promocionado como si fuera “uno de los lados” de un supuesto debate que dividía a la comunidad científica. Técnicamente, esto no cae bajo la categoría de fraude científico. Por el contrario, la estrategia consistía en explotar la incertidumbre natural que acompaña a las conclusiones científicas para dar la impresión de que la actitud correcta era seguir esperando por más resultados antes de tomar medidas de salud pública contra el consumo del tabaco. La estrategia funcionó.  Tal como documentan Naomi Oreskes y Erik Conway en su libro Mercaderes de la Duda (publicado en el 2010), la idea de que no se sabía si el tabaco era dañino se mantuvo en el imaginario estadounidense, y mundial, hasta mediados de los noventa.

La llamada ‘estrategia del tabaco’ — generar la impresión de que existen fuertes dudas en la comunidad científica acerca de un tema, cuando en realidad lo que hay es un consenso casi generalizado– se ha aplicado, literalmente por las mismas personas, a varios otros temas, incluyendo el calentamiento global: explotan una condición normal del conocimiento científico (la ausencia de certezas absolutas) para manipular a la opinión pública, generando la impresión de que la actitud correcta es no tomar posición sobre algunos temas cruciales.

Algo parecido hemos experimentado en el Perú en los dos últimos meses. En vez de entrevistar a alguno de los muchos especialistas que podían dar muy buenas razones de por qué no había indicios de fraude, la prensa amiga (léase: lambiscona) del fujimorismo se limitó a entrevistar a unos cuantos que sí veían estos indicios (supongo que no todos mentían). Incluso se resaltó el único análisis real que podría llevar a pensar en la posibilidad de un fraude (el de Ragi Burhum), y no las decenas de análisis, también serios, que mostraban que no había razones para pensar en esta posibilidad, entre los que destaca el de Ipsos. Más allá de los errores del análisis de Burhum que ya han sido discutidos a profundidad, es un análisis honesto que simplemente diverge del consenso, y que debería discutirse académicamente. La prensa fujimorista destacó ese estudio como ‘una prueba más’ del fraude, y muchos ciudadanos comunes se dejaron impresionar: pues claro, si incluso los especialistas están divididos, deberíamos seguir esperando hasta que se aclare el tema. Es decir, ya que existe un estudio que me da la razón, y es el único que he leído, entonces hay esperar a que se investigue más. Así, la pereza intelectual se disfraza de ecuanimidad.

Todo esto me hace recordar a ese gol de Ruidíaz a Brasil en la Copa América del 2016. Recuerdo que discutía con un amigo sobre si había sido con la mano o no. Él me mostró un video en el que el ángulo no permitía decidir si había sido con el brazo o el muslo. Yo le mostré una de las repeticiones en las que se veía claramente que el gol había sido con el brazo. “Bueno”, me dijo mi amigo, “es cuestión de perspectiva”.

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

estrategia del tabaco, Fraude, Mercaderes de la Duda

Por lo general, en matemáticas las pruebas son definitivas. Si un matemático muestra que una afirmación se deduce perfectamente de un conjunto de afirmaciones fundamentales (axiomas), la afirmación se acepta como verdadera y no hay más vueltas que darle. (Algunas pruebas computacionales no se ajustan a este esquema simplificado, pero dejemos eso de lado por el momento).

En ciencia esto no es así. El tribunal máximo en ciencia es la experiencia empírica, y no existe principio, ley, o teoría que mantenga su aceptación en la comunidad científica si no se ajusta a este tipo de experiencia. Por esa razón, algunos centros de investigación llegan a invertir miles de millones de dólares en construir aparatos y sistemas para poder recopilar esta evidencia, tales como los grandes aceleradores de partículas, la estación espacial internacional, o el proyecto del genoma humano. Cuanto más sofisticados los aparatos para recopilar evidencia, más probable que esta haga tambalear las preconcepciones de los científicos.

En ese sentido, la ciencia siempre está abierta a sorpresas y nuevas teorías, y nada está probado nunca con certeza matemática. Por esa razón, casi siempre van a haber voces discordantes dentro de la misma comunidad científica, pero eso no significa que los científicos no puedan llegar a consensos. Por ejemplo, en el caso del cambio climático, la evidencia llega no solamente por parte de climatólogos, sino también por parte de biólogos, oceanólogos, geólogos, astrónomos, etc. muchas veces trabajando con metodologías independientes. El filósofo Michael Shermer, en un artículo en Scientific American, cita un metaestudio del 2013 que analiza casi 12 mil artículos científicos sobre el clima, y muestra que, el 97% de aquellos que hablan sobre el calentamiento global coinciden en que este es causado por la actividad humana. Es más, el 3% restante no coincide en una única teoría alternativa, sino que afirma diferentes cosas. No tiene que haber, necesariamente, nada sospechoso con ese 3%. La propia naturaleza de la ciencia da pie a que los estudios de fenómenos empíricos complejos no sean unánimes.

A mucha gente le incomoda esta incertidumbre, y la toma como si fuera equivalente a que “todo vale” o “nada está dicho”, pero este es un error de interpretación. Las personas lidiamos con incertidumbre en casi todos los aspectos de nuestra vida, tanto cuando tomamos un vaso con agua, como cuando arriesgamos nuestra vida al girar el timón en una curva en la carretera. Nuestra confianza en la ciencia se debe basar en parte en un razonamiento similar. A mayor cantidad de evidencia independiente, más probable que una afirmación dada sea verdadera. (Otras razones para confiar en la ciencia tienen que ver con su estructura social, la cual genera procesos de auto revisión constante). Es probable, sin embargo, que por ahí haya un estudio relativamente serio que vaya contra el consenso, por ejemplo, que muestre que las vacunas contra el Covid-19 no son ni efectivas ni seguras. Pero actualmente el consenso abrumador en este caso es que sí lo son.

Casi siempre van a haber estudios, incluso bien hechos, que muestren resultados que divergen del consenso. Citar esos estudios no nos convierte en perspicaces; no es que ya vimos algo que nadie más vio y que el establishment quiere ocultar. Es simplemente un estudio entre varios. Un enorme número de personas está tratando de averiguar, de manera independiente, cómo funcionan las cosas, muchas veces usando modelos o metodologías diferentes. Algunos van a divergir, y nadie nos va a poder brindar certeza absoluta. Eso no significa que no tengamos guías de acción. En principio, tomar agua limpia te podría caer mal, y tomar agua del inodoro podría no afectarte. Pero si pensamos con claridad probabilística, tanto en este caso como en el de las vacunas o el calentamiento global, la opción es obvia.

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP. 

Tags:

ciencia, Evidencia, vacunas

En su afán por resaltar la importancia del conocimiento científico, muchas personas presentan una imagen distorsionada de la ciencia. Hoy quiero hablar específicamente de la idea de que las ciencias se enfocan en describir hechos. Voy a discutir tres ejemplos que muestran claramente cómo las mejores explicaciones científicas de algunos fenómenos no se limitan a describir lo que ocurrió, sino también lo que no ocurrió. Esta información es una parte fundamental del conocimiento científico.

Ejemplo 1. Voy a un concierto y sin darme cuenta se me caen mis audífonos del bolsillo. Al día siguiente voy al lugar del concierto, ya vacío, pero aún sucio, y encuentro mis audífonos destrozados. ¿Por qué están destrozados? Primera explicación: había mucha gente en el concierto saltando y las probabilidades de que alguien los pise eran altísimas, entonces alguien los pisó. Segunda explicación: la persona X saltó una altura H1, y chocó con la persona Y1, la cual desvió a X en un ángulo A1, luego X saltó una altura H2, chocando con Y2, desviándose un ángulo A2, etc. Todo esto hizo que X pusiera su pie izquierdo sobre los audífonos, los cuales fueron aplastados con un peso W. Evidentemente la segunda explicación es absurda e innecesaria. No solo eso, al ser tan específica resulta siendo peor que la primera. El énfasis en X obscurece el hecho de que, si no hubiera sido X, es muy probable que otra persona habría pisado mis audífonos de todas maneras. Cuando mis audífonos se me cayeron en un concierto la probabilidad de que alguien los pise se incrementó a casi 100%, mientras que la probabilidad de que X haya tenido la trayectoria específica descrita en la segunda explicación era bajísima. La explicación general engloba de alguna manera a todas las posibles explicaciones específicas, tanto a la que ocurrió como a las que podrían haber ocurrido.

Ejemplo 2. El agua en un recipiente cerrado alcanza la temperatura de ebullición y el recipiente se raja. ¿Por qué se rajó? Una explicación es que, al alcanzar la temperatura de ebullición, el promedio de la energía cinética de las moléculas de agua se incrementó, lo cual hizo que estas golpeen más frecuentemente y con más fuerza las paredes del recipiente hasta quebrarlo. Es posible complementar esta explicación con más detalles, pero no siempre una descripción más fina va a ser mejor. Por ejemplo, de nada serviría identificar la trayectoria específica de cada molécula, la dirección que tomó al colisionar con otras moléculas o con la pared, la cantidad de colisiones que ocurrieron, etc. (datos que, además, son imposibles de conocer). Si la explicación consistiera en describir qué moléculas específicas golpearon la pared en qué momento, perderíamos de vista una información valiosa, a saber, que si no hubieran sido esas moléculas específicas otras habrían hecho que el recipiente se raje. El punto es que la explicación menos específica sí nos brinda esta información: ya que el promedio de energía cinética es tal o cual, es muy probable que haya un conjunto de moléculas de agua que golpee las paredes del frasco y lo quiebre. El nivel adecuado de descripción en este caso es el del conjunto de moléculas de agua como un todo, no el nivel de las moléculas individuales: menos detalle brinda mayor información.

Ejemplo 3. Una pareja de esposos comparte la misma profesión, son igualmente calificados, y ambos tienen la misma motivación para avanzar profesionalmente. Tienen una hija y no tienen ingresos suficientes para pagar una niñera o guardería. Entonces, la mujer decide dejar su trabajo. ¿Por qué dejó su trabajo? Primera explicación: las mujeres enfrentan una gran presión social por ser las que se encarguen de sus hijos en lugar de sus esposos (a ellas se les suele considerar malas madres si no lo hacen, mientras que a ellos no). Además, existen disparidades respecto al sueldo entre hombres y mujeres. En el Perú, a una mujer le pagan en promedio menos del 80% de lo que le pagan a un hombre por hacer el mismo trabajo. Ambos factores hicieron que la mujer termine decidiendo quedarse. Segunda explicación: ella es una persona muy práctica que está dispuesta a hacer sacrificios por su familia, a él no le gusta cambiar caquita, etc.  En este caso, la explicación psicológica hace que se pierda de vista el punto crucial: cualquiera haya sido la personalidad de los esposos en este ejemplo, es bastante probable que, dadas las condiciones estructurales de injusticia social, hubieran tomado las mismas decisiones. En este caso en particular, las explicaciones biológicas o psicológicas ocultan esta injusticia, mientras que la explicación estructural la resalta.

En los tres casos, prestar atención a los detalles individuales de un fenómeno no es tan importante como comprenderlo desde la perspectiva de la estructura de la cual forma parte. No se trata solamente de los audífonos y la persona que los pisó, sino de la situación general de dejar caer los audífonos en un lugar con cientos de personas saltando apretadas: si no hubiera sido esa persona, otra los habría pisado. Igualmente, no se trata de describir al detalle qué moléculas de agua chocaron con la pared, sino de la transferencia de energía que afectó al conjunto de moléculas como un todo: si no hubieran sido esas moléculas, otras habrían roto el frasco. Finalmente, no se trata de los esposos en sí, sino de la estructura de injusticia social de la cual forman parte. Si hubieran tenido una personalidad diferente, probablemente hubiera tomado la misma decisión.

Es importante notar que las explicaciones estructurales no se deben a limitaciones de información, pues incluso si uno tuviera acceso a todos los detalles en todos los casos, perdería información importante acerca de lo que hubiera podido ocurrir si las cosas hubieran sido diferentes en cierta medida. Esta información contraria a los hechos (llamada en filosofía ‘contrafáctica’ o ‘modal’) es crucial para poder explicar científicamente una gran cantidad de fenómenos. En ese sentido, la ciencia no se limita a describir lo que es, sino también lo que podría haber sido, pero no fue.

[Notas: El ejemplo de la temperatura es de los filósofos australianos Frank Jackson & Philip Pettit. El ejemplo de la pareja es de la filósofa estadounidense Sally Haslanger. El dato del gender gap en Perú es de ourworldindata.org]

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

ciencia, Filosofía

La ONPE se ha pasado el fin de semana desmintiendo noticias falsas. Pero el daño está hecho, pues las noticias cumplieron su cometido de crear un clima de desconfianza en las autoridades electorales. El twitter de la ONPE tuvo una excelente capacidad de reacción, y uno esperaría que esto habría hecho detener la difusión de estas mentiras, pero lamentablemente la gran mayoría de personas que comparte noticias falsas es completamente indiferente a desmentidos y refutaciones. Como una primera aproximación, quisiera hacer una tipología de las personas que comparten estas noticias.

Los mentirosos. En primer lugar, tenemos a los que saben que las noticias son falsas, pero las distribuyen para conseguir un fin ulterior. Aquí existen dos grupos, los que actúan como si la noticia fuera verdadera, y los que actúan como si no supieran si la noticia es falsa o no, y la comparten como si estuvieran consultando sobre su veracidad. En los casos más tristes, estas personas justifican hacia sí mismas su proceder aludiendo de manera oblicua al hecho de que son muy pocas las proposiciones empíricas sobre las cuales tenemos certeza absoluta (y así el pobre David Hume termina siendo utilizado para apañar la idiotez).

Los inocentes. En segundo lugar, muchas personas no están acostumbradas a verificar la información. Es más, en muchos casos ni siquiera saben cómo verificar una noticia. ¿A dónde ir? ¿A quién creer? En teoría, una vez que se llega a la página de la ONPE o del JNE debería terminar el asunto, pero vivimos en una época en la que se confunde ser perspicaz con ser escéptico, y donde el que dice no a todo se cree transgresor y profundo. Entonces, ya no se duda solamente de los miembros de mesa, o personeros de Perú Libre, sino de los mismos organismos electorales. Cual gallina sin cabeza, estas personas andan epistemológicamente desorientadas, y terminan creyéndole a cualquiera que les hable bonito y los haga sentir especiales.

Los tercos. En tercer lugar, hay personas que no están acostumbradas a reconocer sus errores o que creen que eso sería una muestra de debilidad, y por lo tanto se embarcan en las más inverosímiles racionalizaciones. Dos ejemplos: Primero, varias personas compartieron la falsa noticia de que el JNE había colocado a Vladimir Cerrón como segundo vicepresidente de Perú Libre. A pesar de que se les mostró la página del JNE donde se indica que la candidatura de Cerrón es improcedente, estas personas reaccionan con ejercicios de gimnasia mental. El más increíble que encontré es este: “Claro, pero si el JNE editara su página, podría cambiar la denominación de improcedente por una de procedente, lo cual prueba que, en efecto, el JNE ha declarado la candidatura como procedente”. Segundo ejemplo, una persona dice que Perú Libre ha impugnado más de mil actas, teniendo que pagar una cuantiosa suma de dinero. Se le muestra la página de la ONPE donde se ve que las actas impugnadas son menos de 500, que no hay ninguna indicación de que estas hayan sido impugnadas solo por Perú Libre, y que la impugnación no tiene costo. Pero nada de esto le importa al susodicho, y ahora uno se ve forzado a asistir al suicidio intelectual del homo sapiens: “Quise decir observadas”, “Es probable que todas hayan sido impugnadas por Perú Libre”, y “¿De dónde sacó Perú Libre plata para la campaña?” Todos hemos sido engañados alguna vez, pero si tuviéramos la costumbre de retractarnos cuando accedemos a evidencia que nos contradice, el nivel de difusión de noticias falsas sería mucho menor.

Los gregarios. El cuarto punto tiene que ver con la dinámica al interior de los grupos de WhatsApp. Tal como señala el sociólogo y economista político William Davies, en un artículo publicado en The Guardian el año pasado, las características particulares del formato de WhatsApp facilitan la difusión de noticias falsas. En WhatsApp la transmisión de mensajes es completamente encriptada, por lo que el nivel de privacidad es mucho mayor que en otras redes sociales. Esto hace que los usuarios puedan hablar más francamente, compartiendo no solo sus alegrías y logros personales, sino también ideas que no se atreverían a compartir en público, tales como prejuicios e incluso discursos de odio. Los grupos de WhatsApp desarrollan rápidamente un fuerte sentido de comunidad, generalmente en torno a una visión compartida del mundo. Esto también implica una solidaridad negativa, donde se define a un enemigo común del cual los miembros del grupo deben defenderse. Debido a ello, los ataques al enemigo común suelen ser premiados, mientras que los desacuerdos suelen ser castigados. Esto genera un espíritu de cuerpo acrítico, que contribuye a la radicalización del grupo. En ese contexto, cuando una noticia favorece la visión del mundo compartida por el grupo, es más probable que sea aceptada, e incluso será reenviada a otros grupos, independientemente de si es verdadera o no. Desmentir dicha noticia suele percibirse como un acto incómodo, como un insulto al que la compartió. La reacción ante un desmentido no es la subsecuente desconfianza en aquél que compartió la noticia. Por el contrario, en solidaridad con el agraviado, el grupo suele compartir más y más noticias que vayan en la misma línea, verdaderas o no, y el que desmiente pasa a ser el nuevo enemigo. Validar al grupo es más importante que decir la verdad. En el caso que nos ocupa, el enemigo común es el comunismo. Al comienzo, este se materializa solo en Perú Libre. Pero gradualmente esta idea se va radicalizando. El gobierno también pasa a ser comunista, luego la prensa independiente, los organismos electorales, y por último las entidades internacionales que observaron nuestras elecciones. Y como el fraude se le atribuye al ‘comunismo’, se crea el clima perfecto para aceptar cualquier noticia falsa en ese sentido. Como el grupo se percibe a sí mismo como aislado, no existe conciencia de que lo que ocurre ahí pueda tener repercusiones reales (como me comentaba un amigo, la gente actúa como si estuviera en un videojuego, donde lo que haces supuestamente no tiene consecuencias). Pero las noticias falsas suelen saltar de grupo en grupo: a mayor concentración de noticias falsas en un grupo, mayores las probabilidades de que estas transpiren a otros grupos. Y así, cuando los líderes de opinión salen a pedir abiertamente un golpe de estado militar, cientos de grupos de WhatsApp han contribuido no solo a crear un clima donde el fraude es tomado como una realidad indiscutible, sino que la idea de un golpe se ha normalizado.

Las noticias falsas correncomounreguerodepólvora, facilitadas por gente que se miente a sí misma y a los demás, o que no sabe distinguir entre lo verdadero y lo falso, o que es incapaz de reconocer un error, o, como en el caso de los grupos de WhatsApp, se maneja con un falso sentido de solidaridad. Las noticias falsas socavan la democracia, y cualquier persona que se autoproclame defensora de la democracia debería luchar activamente contra esta plaga.

[Nota: El artículo de Davies se llama What’s Wrong with WhatsApp, y fue publicado en The Guardian el 2 de julio del 2020. Lo del ‘reguerodepólvora’ es de Rayuela. Las categorías de mentirosos, inocentes, y tercos corresponden vagamente a las de perros, ovejas y chanchos, que usé en mi columna El Zoológico del Terruqueo (Sudaca 9.3.21), que a su vez provienen del Animals, de Pink Floyd].

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

Fake news, JNE, ONPE

En época de elecciones, sobre todo en las segundas vueltas, las discusiones políticas se salen de control: basta que una persona haya escogido a un candidato distinto al de la mayoría para que el grupo de WhatsApp se vuelva un solo de ofensas, la reunión familiar se convierta en gritos, y los extraños en Facebook se sientan con derecho a proferir insultos. En este contexto un cliché se repite con mucha frecuencia: “No destruya amistades por simples diferencias políticas”. Yo no estoy seguro de que este consejo, tomado en sentido literal, sea muy saludable. Ciertamente habría que pensarlo dos veces antes de guardar amistad, por ejemplo, con un neonazi. Pero más allá de casos extremos, yo creo que uno debe romper con algunas personas dependiendo de la forma en que estas suelan encarar las discusiones políticas.

Mi idea es que, si su amigo o familiar es una bestia para discutir, lo mejor es alejarse de esa persona.

El presupuesto básico para una discusión es que ambas personas se presenten con un cierto grado de vulnerabilidad. Ambas aceptan que desconocen la verdad sobre un punto, o que no poseen la imaginación suficiente para concebir argumentos que los hagan dudar sobre algo que creen verdadero. Una buena discusión es como un juego de Jenga. Para pasar un buen rato jugando Jenga no importa tanto quién sea el ganador, sino qué tan alta es la torre que alcanzan a construir juntos. Un buen jugador de Jenga no espera que su contrincante se equivoque y bote la torre, sino más bien desea que el otro consiga colocar una pieza más, para así enfrentar un reto mayor y poner a prueba sus propias capacidades. Ahora bien, imagine que una persona insiste en jugar Jenga con usted, usted accede, pero al cabo de un rato, cuando le toca a usted su turno, la persona le mete un patadón a la mesa para que la torre se desmorone a pedazos, y luego se levanta vociferando ¡gané, gané! Si al cabo de unos días la misma persona se le acerca y le pide jugar de nuevo (y es más, ¡le dice que le encanta jugar con usted!), lo aconsejable, evidentemente, es rechazar la invitación.

En el caso de una discusión, si mi interés es encontrar la verdad, entonces lo que más me conviene es que mi interlocutor articule sus ideas con la mayor claridad posible, para así poder evaluarlas con cuidado. Y si mi interés es poner a prueba algo que yo considero como verdadero, debo también esperar con paciencia, y sobre todo, interpretar los argumentos de mi oponente de la mejor manera posible. Pues cuando interpreto un argumento o idea de manera tendenciosa lo único que hecho es crear una versión distorsionada que es mucho más fácil de refutar, lo cual me da la falsa ilusión de que he ganado la discusión – esto es equivalente a patear la mesa cuando mi oponente de Jenga está intentando poner su pieza, quedándome así con la sensación idiota de que soy un gran jugador.

Si en discusiones previas una persona le ha mentido, se ha burlado de sus ideas, lo ha interrumpido constantemente, lo ha interpretado tendenciosamente, levanta la voz, se irrita, etc., entonces no hay vínculo de amistad o filial que lo obligue a aceptar una invitación para discutir, ni disculpa o excusa que valga. ¿Mi consejo? Evite a toda costa a esa persona. Y si esa persona le pregunta por qué no quiere discutir, evite explicárselo, porque ese intento de explicación también conlleva una discusión.

En elecciones hay que distinguir claramente entre aquellos amigos o familiares que buscan una discusión con usted como instrumento para manipularlo y que vote por un determinado candidato (y para ello usarán mentiras, buscarán asustarlo, infundirle vergüenza, etc.), y aquellos que realmente quieren tener un intercambio de ideas; entre aquellos que quieren patear la torre, y los que buscan construirla más alto. Un votante realmente convencido de que su opción es la mejor no tendría por qué mentir para defenderla, o tergiversar las posiciones contrarias. Al contrario. Su posición se solidificaría aún más si consiguiera rebatir los mejores contraargumentos, no los peores. Y si usted genuinamente no sabe por quién votar, qué mejor que buscar conversación con aquellos que realmente la van a ayudar a construir una alta torre de ideas. Lo que se debe evitar a toda costa es jugar Jenga con Chewbacca.

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

Elecciones 2021, Jenga, Perú

Hace menos de una semana el congreso peruano aprobó, con 49 votos a favor, la creación de una comisión para investigar los posibles efectos positivos del dióxido de cloro en relación al COVID-19. Muchas personas han señalado que con esto el congreso le está abriendo formalmente la puerta a la pseudociencia. Pero, ¿qué es la pseudociencia?

Cuando hablamos de pseudosciencia no nos referimos a casos de ciencia ‘mal hecha’, en la que los malos resultados se obtienen debido a errores metodológicos o de razonamiento (ej. cuando quieres hacer generalizaciones acerca de todos los adultos, pero estudias solamente a adultos hombres). Tampoco estamos hablando de casos de fraude científico, en los que científicos inescrupulosos alteran sus resultados o métodos intencionalmente con el propósito de engañar (ej. el famoso estudio de los noventas que reclutó niños con tendencia genética al autismo para ‘probar’ que las vacunas causan autismo). Del mismo modo, no nos estamos refiriendo a disciplinas o prácticas no científicas que ni siquiera pretenden serlo, como la literatura o la mayoría de las religiones. El asunto que nos ocupa es más profundo: ¿Cómo sabemos si una disciplina o una afirmación que pretende ser científica en verdad lo es? En filosofía, a este se le llama el problema de la demarcación.

Muchas ciencias han hecho afirmaciones equivocadas, y muchas pseudociencias de vez en cuando atinan a decir la verdad. Por lo tanto, no podemos resolver el problema de la demarcación diciendo simplemente que las ciencias dicen la verdad, y las pseudociencias se equivocan siempre.

Desde mediados del siglo pasado, ha habido varios intentos de solucionar este problema, siendo el más famoso el del filósofo austriaco Karl Popper. Aquí sin embargo me quiero ocupar de las soluciones más contemporáneas, las cuales suelen poseer dos características principales. En primer lugar, no se enfocan solo en las afirmaciones que se producen en una determinada disciplina, sino que incorporan también las actitudes de aquellos que practican dicha disciplina. Por otro lado, no buscan un criterio único sino más bien definen una serie rasgos comunes que distinguirían la ciencia de la pseudosciencia.

Por ejemplo, el filósofo inglés James Ladyman señala cuatro rasgos de las pseudociencias. En primer lugar, sus afirmaciones usan jerga científica, pero sin asignarle su contenido real (ej. sanación cuántica). Además, los que practican estas disciplinas no se esfuerzan en clarificar sus ideas, sino que las mantienen ambiguas y obscuras. En tercer lugar, suelen trabajar en círculos cerrados, sin molestarse en comparar sus resultados con los de otras disciplinas, y afirmando haber encontrado ciertas verdades que el ‘establishment científico’ quiere ocultar. Y, por último, los practicantes de pseudociencia suelen seguir a líderes de culto ‘que nunca se equivocan’. La idea es que solo las disciplinas que poseen estos cuatro rasgos son pseudocientíficas, sino que, digamos, poseer algunos de estos indica que hay algo de pseudocientífico en dicha disciplina.

La pseudociencia es popular por varias razones. En primer lugar, impresionada por la cantidad de casos de fraude científico o malas prácticas, mucha gente generaliza y concluye que es mejor no confiar en los científicos en absoluto. Lo que aquí se ignora es que en la gran mayoría de los casos son los mismos científicos los que descubren y hacen públicas estas malas prácticas. Otra razón es que los científicos suelen lidiar con asuntos complejos, y muchas veces no tienen respuestas para dichos asuntos: se desconoce el origen de algunas enfermedades, la efectividad de distintos tratamientos, etc. No pudiendo tolerar la incertidumbre científica, y muchas veces motivadas por la desesperación, las personas recurren a tratamientos alternativos que prometen soluciones a estos problemas. Lo que estas personas no toman en cuenta es que la investigación científica se da por definición en el límite entre lo conocido y lo desconocido, ¡si no fuera así no habría nada que investigar! Por naturaleza, la ciencia tiene que lidiar con la incertidumbre. Esto es algo que todos hemos podido ver de cerca durante la pandemia, pero no es ninguna novedad para los científicos.

Es difícil tener absoluta claridad respecto a la distinción entre ciencia y pseudosciencia, pero sí conviene darle vueltas al asunto, sobre todo ahora que nuestros ilustres congresistas han puesto sobre la mesa el tema de designar recursos públicos a la investigación de patrañas como el dióxido de cloro.

* Manuel Barrantes es profesor de filosofía en California State University Sacramento. Su área de especialización es la filosofía de la ciencia, y sus áreas de competencia incluyen la ética de la tecnología y la filosofía de las matemáticas. Obtuvo su doctorado y maestría en filosofía en la Universidad de Virginia, y su bachillerato y licenciatura en la PUCP.

Tags:

Covid-19, Filosofía, Pseudociencia
Página 4 de 5 1 2 3 4 5
x