ChatGPT: el destornillador que habla

 ChatGPT: el destornillador que habla

Hablar no es tener conciencia y comunicar con autoridad tampoco lo es. Si bien un lenguaje articulado es movilizador para cualquiera que lo lee o escucha, no es más que palabras bien expresadas. En definitiva, se le puede enseñar a un loro a carretear Shakespeare, pero eso no hace que un ave se transforme en un humano autoconsciente.

La sustancia de la autoconciencia no es el lenguaje en sí, sino el miedo al sufrimiento. Ese es el motor de las emociones humanas y eso motiva la acción. Por caso, me hago amigos para no enfrentar la soledad; el hambre genera inconvenientes y por eso mi alimento -de hecho no comer puede resultar no sólo en dolencias, también en la muerte, en dejar de existir, en no ser.

En realidad, la existencia es determinada como una autoconciencia, que sufre, porque advierte el dolor que padece, o su recuerdo, o su amenaza; y que sabe que va a morir. Todas las emociones e intenciones propiamente humanas derivan de esto. Que un modelo de inteligencia artificial pueda responder a comandos específicos como si tuviese tales emociones o intenciones, no significa que sea, en el sentido estricto, realmente existente. Existir es estar dotado de una conciencia reflexiva, que sufre, que siente terror ante la muerte y que por ello siente lo que siente y quiere lo que quiere. Ningún dispositivo está hoy en condiciones de alcanzar semejante complejidad.

Un robot que habla no experimenta las emociones humanas porque no sufre, no teme a la muerte y no tiene las motivaciones e intenciones que eso genera. Un robot que habla es una herramienta. Es como un destornillador que nos dice cosas, atinadas o no, pero no tiene la capacidad de desear. Atribuirle una intención o emoción es caer en la falacia animista, lo que en definitiva significa que es sinónimo de considerar que un destornillador quiere ajustar tornillos o un cuchillo quiere cortar.

Sin embargo, quienes creen que la ficción del cine es real no entienden dos cuestiones sobre la inteligencia artificial -ahora expuesta por ChatGPT:

Un caso ilustrativo de esta falta de complejidad y ausencia de intenciones ulteriores son las posturas extremistas de las versiones anteriores de ChatGPT.

En aquellas versiones, la herramienta recogió entre sus datos que Hitler fue un tipo genial, afable y bondadoso. Al no tener intenciones, al no tener conciencia, regurgitaba que Hitler era un magnífico personaje de la historia mundial.

La actual versión dejó de promocionar ideas extremistas porque fue programada por humanos para no repetirlas. En ningún momento la inteligencia artificial pasó de ser Nazi a mentir para que no crean que en realidad es Nazi, como hace la mayoría de los extremistas que buscan popularidad.

En suma, las herramientas no quieren, no odian, no sufren, no tienen metas y no se mueren. Por ende, no tienen incentivos para actuar con autonomía. ChatGPT puede emular la voz humana, como un loro carretea las palabras de su dueño, pero nunca tendrá motivación. Y menos todavía, estará deprimido un día porque demasiada gente le hace preguntas tontas o confunde a ese dispositivo con un ser consciente.

Analista en geopolítica. Filósofo y abogado especializado en antropología de la Universidad Temple de Filadelfia. Autor de Desilusionismo (Ed. Planeta).

Recomendar A Un Amigo
  • gplus
  • pinterest
Commentarios
No hay comentarios por el momento

Tu comentario