Red de conocimiento informático - Material del sitio web - ¿Cómo entender que "la conciencia es una función del cerebro humano"?

¿Cómo entender que "la conciencia es una función del cerebro humano"?

(1) ¿Son conscientes las computadoras actuales o se puede generar conciencia basándose en inteligencia artificial bajo el marco informático actual?

(2) ¿Podrán los robots del futuro producir conciencia?

(3) ¿Cómo crear un robot consciente?

(4) ¿Cuáles son los posibles peligros de crear robots conscientes?

(1) ¿Son conscientes las computadoras actuales o se puede generar conciencia basándose en inteligencia artificial bajo el marco informático actual? Imposible, es imposible que las computadoras actuales tengan conciencia subjetiva y es imposible que la inteligencia artificial basada en el marco informático actual produzca conciencia en el futuro. En otras palabras, es imposible producir conciencia simplemente escribiendo programas en las computadoras existentes. !

Las razones son las siguientes (referencia): En resumen, según la discusión de Chalmers[1] sobre temas difíciles, la clave para generar experiencia consciente es utilizar directamente las propiedades intrínsecas de los materiales (o hardware). ), lo cual es absolutamente imposible Generar experiencias conscientes no estructuradas simplemente agitando cosas estructuradas (todos los programas están estructurados).

Por supuesto, el animismo popular posterior y la Teoría de la Información Integrada IIT de Tononi[2] convencieron a Chalmers de que es posible que las computadoras ya tengan conciencia. El animismo cree que cualquier sustancia tiene experiencia consciente, pero la experiencia consciente de las sustancias ordinarias está demasiado fragmentada y equivale a ninguna experiencia consciente. Y creen que mientras las propiedades físicas (estructura) de estas sustancias estén altamente integradas en un todo (con un alto valor de PHI en IIT), las propiedades internas (experiencias fragmentadas) de estas sustancias se combinarán automáticamente en una sola. como los humanos. Sin embargo, mucha gente cree que la integración de atributos físicos no significa que los atributos inherentes se integrarán automáticamente. Este es en realidad el llamado problema de combinación. El propio Chalmers también cree que existe un problema de combinación. De hecho, James[4] en el siglo XIX incluso creía que las propiedades intrínsecas son incombinables.

Incluso si James se equivoca, creo que la probabilidad de que las propiedades inherentes del hardware de una computadora puedan programarse y combinarse automáticamente es casi nula. Por tanto, es imposible que las computadoras actuales tengan conciencia subjetiva.

(2) ¿Podrán los robots del futuro producir conciencia? Sí, las computadoras o robots del futuro podrían generar conciencia, pero requerirían modificaciones en el hardware informático existente. La razón es que los humanos somos un ejemplo. Sería posible hacer que los robots fueran conscientes siempre que aprendieran a manipular directamente las propiedades intrínsecas de la materia. Consulte la respuesta a la siguiente pregunta para obtener más detalles.

(3) ¿Cómo crear un robot consciente? James creía que las propiedades intrínsecas de la materia son incombinables, por lo que la única solución es que la materia que produce nuestra conciencia sea indivisible, como una partícula elemental, pero debe ser lo suficientemente compleja, por lo que sus grados de libertad inherentes son enormes. Además, debido al principio de partículas idénticas, todas las experiencias conscientes producidas por partículas idénticas en el mundo serán la misma experiencia. Por ejemplo, si la conciencia de A y B son generadas por electrones, incluso si no utilizan el mismo electrón, son esencialmente la misma conciencia.

Basándose en esto, la clave para hacer un robot consciente es construir un sistema físico para capturar y estabilizar una partícula tan básica con un gran grado interno de libertad, y hacer que su tipo sea lo más diferente posible de la base utilizada por la conciencia existente.