El Paradigma del Super Cerebro o Metasistema. ¿La profecía de la ciencia ficción o la predicción cibernética autocumplida?
Este ensayo sobre el paradigma del supercerebro o metasistema, trata de ser coherente con la temática planteada de modo que la mejor manera de leerlo es en línea, puesto que en vez de las clásicas...

Cybernetics
Carlos Ocampo Ercilla Viernes 4 de Agosto del año 2006 / 16:52

Carlos Ocampo Ercilla. Arqueólogo. Universidad de Chile


Presentación

Este ensayo sobre el paradigma del supercerebro o metasistema, trata de ser coherente con la temática planteada de modo que la mejor manera de leerlo es en línea, puesto que en vez de las clásicas referencias bibliográficas se le han insertado hyperlink a distintas URL, que contienen información respecto de las fuentes en que se nutrió el trabajo mismo, ya sea glosario de términos como páginas Web, pointers a nodos y archivos que a su vez, abren la puerta a un número insospechado de nuevas conexiones. Para aquellos lectores que no están familiarizados con Internet, se sugiere como lectura introductoria el epílogo de este trabajo.

Interfaces entre Máquinas y Seres Vivos

La epistemología es la teoría del conocimiento que relaciona al observador con la realidad y su percepción e interpretación. En el marco de las epistemologías constructivistas se define la cibernética de primer orden como la cibernética de los sistemas observados, en tanto que la cibernética de segundo orden se define como la cibernética de los sistemas observadores (Von Foerster, 1979). La pregunta no será en el futuro cómo se construye esta teoría del observador que tiene su fundamento en la biología (Maturana, et al) o, si hacemos observación de segundo orden, sino quién es el sistema observador. Los biólogos pueden definir al observador como el ente biológico y autopoyético, en ese sentido el observador de Maturana es un ser humano básicamente, que no se distingue en nada de Platón o Marcuse o cualquiera de él mismo, ni aún de la línea de primates bípedos que articulan el lenguaje (razonamiento analógico). No obstante, la tecnología juega por un lado un papel de primer orden en la transformación, la evolución, el desarrollo de ciertas capacidades y, por otro lado, de la involución y la atrofia, como en todo proceso evolutivo y de selección al azar. Eso se da por sabido. En el estudio de los hombres fósiles, nos hemos enterado que ciertos atributos anatómicos de nuestros antepasados fueron evolucionando en la medida que los homínidos fueron, por ensayo, error y azar, incorporando cierto numero de técnicas a su acervo, así por ejemplo, creció el desarrollo de los homúnculos cerebrales y disminuyó la musculatura del cuello, proceso de influencia recíproca relacionado con la construcción de herramientas, la comprensión de su uso, la eficiencia, eficacia en el éxito de la supervivencia, y la menor dependencia en la fuerza de la mandíbula. Al cambiar los hábitos alimenticios, que nos relacionaban con otros primates omnívoros, se fue atrofiando el tercer molar, sobre todo con el advenimiento de la agricultura, y el menor consumo de raíces silvestres. De manera similar, muchos cambios ocurrieron en los procesos evolutivos azarosos. Estos cambios siguen ocurriendo hoy en día a raíz de los mismos procesos, enfrentados a nuevos escenarios medioambientales, en nuestra modificación recíproca del entorno. Así, vamos a través de la historia de la evolución en lo que respecta a la supervivencia genética, desarrollando ciertos aspectos de nuestro sistema inmunológico, y deteriorando el mismo en función de la pérdida de calidad del ambiente natural.

Si el observador de hoy día es un ser humano, sabemos que, en el caso de la observación de primer orden, al menos ya no es de manera directa. El hombre ha inventado autómatas y máquinas cibernéticas, así como sensores remotos que trascienden sus limitaciones estructurales específicas. De este modo, robots teledirigidos como el Sojurner en Marte actúan autónomamente de manera recursiva, siguiendo una rutina prediseñada de algoritmos de observación y clasificación, con atribuciones mayores que las que tiene el ser biológico. Por ello, el puesto de comando de la sala de control de la Nasa se limita a teledirigir sus maniobras en un ambiente virtual en tiempo diferido (11 min.), y en consecuencia, casi toda la observación que allí se va realizando por los científicos es de segundo orden. Es más, interfaces neurológicas entre el ser humano y las máquinas posibilitan, desde algún tiempo a esta parte, cierta clase de simbiosis ciberorgánica. Existen interfaces lingüísticas que permiten dictar a una máquina , y que este dictado se transforme en texto, y que la máquina vaya adecuándose paulatinamente a "interpretar" la dicción del usuario. También existen interfaces neuronales que permiten conectar los movimientos naturales del ojo, como la dilatación de las pupilas, a los gestos faciales, exentos de reconocimiento de caracteres específicos sin acciones concretas en la máquina o en el computador. De este modo, subir una página, avanzar a la izquierda o la derecha en la pantalla del computador, son acciones posibles a través de estas interfaces por ahora experimentales. Todo lo anterior lleva al concepto de un sistema híbrido de observador, entre el ser orgánico y el cibernético, el que en esa función se va volviendo crecientemente involucrando a un proceso de interacciones de complejidad emergente e insospechada. Algunos dirán -"Bueno, pero el programador último de los sistemas es el ser humano". En el futuro de mediano plazo ésta se transformará, probablemente, en una relación simbiótica tan estrecha que nos impedirá distinguir qué parte del sistema gobierna absolutamente el proceso, cuánto influye la parte o las partes del ser humano en la programación y cuánto hace el organismo cibernético por su parte. En todo caso, la tendencia será de cooperación y dependencia mutua y en ese caso en todo ese proceso de transición al ciberorganismo, el saber con certeza quién influye y determina a quién, resultará un aspecto inconcebible desde dentro del sistema operando.

El Ciberorganismo o Metaser

Algunos investigadores expertos en sistemas cibernéticos y STS han ido más lejos aún, haciendo imposible distinguir los límites entre la ciencia ficción y la ciencia actual. Ellos visualizan cyborg o ciberorganismos, metaseres o super seres, conceptualizados como organismos híbridos (inmortales) que sobrevivirán, no precisamente por medio de su naturaleza orgánica, sino por medio de su organización cibernética, la cual conciben como una combinación de tejidos orgánicos, redes electrónicas y otros medios.

"an organism with a machine built into it with consequent modification of function; an organism which is part animal andpart machine. Since some theorists regard organisms as biological machines, we must define our terms further. An animal willbe defined as a creature whose elements are the result of "small loop autopoiesis." That is the creature creates itself but theparts are the result of localized processes. Mind is not involved in the production of the parts. Mind results from thefunctioning of the parts but is manifested in the external behavior of the organism. A cyborg, then, is a creature composed ofsome parts constructed without the benefit of mind and SOme parts constructed with the benefit of mind. Furthermore theparts must be of greater than molecular size. A creature with aspirin in its body is not a cyborg. A creature with an artificialheart is a cyborg. Under this definition, animals with donated hearts, kidneys or retinas would also be cyborgs". (Umpleby)

Concebido este cyborg o metaser como un ser que posee una conexión directa, retroalimentada, autoreferente y recursiva entre el sistema nervioso y una máquina, la muerte ocasional de algún componente biológico o de naturaleza no biológica no implicará la muerte del sistema. Acaso, no es el famoso físico Stephen Hawking, de reciente visita en Chile, una clase de ciberorganismo. La tecnología y la puesta en marcha de nuevas interfaces entre las máquinas y los seres humanos queda de manifiesta en esta cita recientemente extractada del Internet respecto del mismo profesor Hawking:

"renowned astrophysicist Stephen Hawking today demonstrated publicly for the first time his new wireless access to the Internet. Professor Hawking can now connect to the Internet from almost anywhere in the world using a wireless GSM (Global System for Mobile communications) connection and a notebook computer specially modified for Hawking by Intel engineers and powered by an Intel Pentium® processor with MMX™ technology."( Intel)

Ni siquiera en el famoso film del director Riddley Scott, "Blade Runner", de apenas una década atrás, se pensaba algo así. Allí los seres replicantes, los cyborg llamados Nexus-6, como el caso del androide Roy, personificado por el actor R.Hauger, tenían el gran dilema de la fecha de vencimiento o muerte. Uno se pregunta cómo es posible que hoy en día las predicciones de los científicos sean aún más audaces que las de los escritores de ciencia ficción de hace apenas una década, cuando antes la relación era de 100 años (Julio Verne) como en el caso de los submarinos, y anteriormente en el caso de los inventores (Leonardo) de 450 años. Bueno, la pregunta que cabe aquí es: ¿la ciencia ficción o la predicción cibernética, son una profecía autocumplida? Lo cual en ese estricto sentido nos lleva a reconocer el atributo autopoyético de los sistemas sociales.

La Transición al Metasistema

El conocimiento dentro de la Teoría de la transición metasistémica (Turchin), es entendido como modelos que permiten la adaptación de un sistema cibernético a su medioambiente, anticipándose a las posibles perturbaciones que en él ocurran. Estos modelos funcionan como generadores recursivos de predicciones acerca del mundo y de sí mismos. Los modelos así concebidos no son reflejos estáticos del ambiente, sino construcciones dinámicas hechas a través de ensayo y error, por el individuo, la especie o la sociedad.

Se entienden como doblemente subjetivos en el sentido de ser construidos por el sujeto para sus propios propósitos y objetivos y en el sentido de ser seleccionados naturalmente por el ambiente. De este modo, la MST entiende el desarrollo del conocimiento como un proceso evolutivo caracterizado por la variación en los mecanismos y en los procesos de selección. Como sabemos, no existe un modelo "verdadero" de la "Realidad", sino muchos modelos diferentes de ella, cada uno de los cuales podría ser apropiado para resolver algún problema en particular, sin embargo, no existe un modelo capaz de resolver todos los problemas. De este modo, la manera más eficaz de elegir el modelo, o construir uno, que resulte más adecuado para dar cuenta de un problema determinado es, dicen la MST, razonar en el nivel metacognitivo, en el cual una serie de modelos posibles puede ser analizado y comparado. Este enfoque requiere de una transición metasistémica con respecto a la variedad de los modelos individuales.

La Inmortalidad Cibernética

Uno de los grandes dilemas y aspiraciones que presentan los teóricos de las transiciones metasistémicas es el problema de cómo se puede alcanzar la inmortalidad cibernética, de modo tal, que todo el conocimiento acumulado en el cerebro de un individuo se pueda traspasar a las nuevas generaciones, considerando que sólo una pequeña parte de este saber y experiencias puede ser almacenado fuera del cerebro que lo creó, con el argumento que la evolución se vería altamente beneficiada si todo este conocimiento adquirido pudiera mantenerse para generar más conocimiento adecuado. Lo anterior requeriría conseguir la inmortalidad efectiva de los sistemas cognitivos, definidos como las mentes tanto a nivel colectivo como individuales, así lo que sobreviviría no sería el sustrato material del cuerpo o el cerebro, sino la organización cibernética.

El modo de mantener la organización cibernética de un sistema cognitivo como el descrito, es logrando la transferencia de la organización mental a un sistema de computación altamente sofisticado, que permita a los computadores trabajar como lo hace el cerebro humano, siendo capaces de aprender billones de conceptos relacionados en una nueva forma, no del modo rígido en que lo hacen actualmente de acuerdo a las estructuras en que funcionan. De este modo, con el desarrollo del conocimiento acerca de las redes neuronales, la inteligencia artificial, el Web, etc. imaginan el "aprendizaje del Web como cerebro" . Así se vislumbran a los sistemas computacionales interactuando íntimamente con el ser humano (Heylinghen) de un modo creciente, de manera tal, que lleguen a conocer tan bien a los usuarios que puedan anticiparse a sus reacciones o deseos. Este continuo trabajar juntos entre el computador y el usuario, los hará en algún sentido "fundirse" de tal manera que resulte sin sentido el trabajar uno independiente del otro, y en esta dinámica de interacción simbiótica, llegará entonces el momento en que el individuo biológico de esta sociedad muera, pero la parte computacional seguirá trabajando como si nada hubiese ocurrido. De este modo la mente del individuo seguirá sobreviviendo en la porción no orgánica del proceso.(Bollen.J & Heylinghen.F, 1996)

¿El Supercerebro Global?

La idea que en la medida que los sistemas sociales y la tecnología se desarrollan cada vez más imbricados en un tejido de interacciones que trascienden las antiguas fronteras entre los países y las culturas, últimamente se ha transformado en una clásica monserga "la aldea global", sin embargo, este concepto nos acerca cada vez más a lo que ciertos pensadores conciben como el superorganismo. La metáfora de considerar a la red global de comunicaciones, entre las cuales el Web se cuenta como una de las más importantes, como el sistema nervioso de un ser planetario, también ayuda a sumar argumentos a los que profetizan la tesis del superorganismo. A medida que las redes de computadores se vuelven más inteligentes, se comienzan vislumbrar como un "cerebro global" o "supercerebro" con capacidades que van más allá que la de los individuos. Esta supuesta transición metasistémica es parte de un proceso evolutivo que se piensa nos lleva a niveles mayores de complejidad. Lo que no está del todo claro para los investigadores es si esta transición nos guiará hacia la integración de la humanidad produciendo a la postre un "superser" o lo que ocurrirá será el incremento de las capacidades de los individuos produciendo una multiplicidad de "metaseres".(Bollen. 1995., Bollen & Heylighen. 1997)

La idea de fondo de esta propuesta es que la sociedad global podría llegar a poseer un "cerebro global" como un superser del conocimiento interplanetario. El símil entonces es con la metáfora de concebir a la red global de computadores y otros medios como este supercerebro de la sociedad, que trascienda a la suma de las experiencias y del conocimiento individual, grupal o especializado, atravesando todos los dominios del saber y el conocer, que atesora, aprende, enseña y se adapta, a través del desarrollo de procesos asociativos de complejidad creciente, construyendo bloques de conocimiento en base a la recurrencia de conexiones entre conceptos que interactúan y se autorefieren frecuentemente tal como lo hacen las redes neuronales, e interactúa y se nutre de sus nodos. El mayor problema que existe aún es desarrollar una serie los algoritmos que permitan a una red de hypermedia autoorganizarse de acuerdo al conocimiento y las necesidades de sus usuarios. De manera tal que, actualmente, se trabaja en el establecimiento de una red experimental que evolucione hasta un estado estable que represente el conocimiento compartido de los participantes, sus estructuras y asociaciones. Hasta el momento lo más parecido al algoritmo buscado son las llamadas máquinas de búsqueda (searching engines) en el Web, como el Yahoo, el Webcrawler, el Excite y otras cientos, que funcionan activando nodos paralelos cuando el usuario digita las palabras claves relacionadas con la búsqueda de información de su interés, como resultado accesan las bases de datos y la búsqueda en el cyberespacio todos los "links" que contengan un máximo de ellas. No obstante, por el momento son incapaces de relacionar eficientemente conceptos asociados con las palabras ingresadas, ni menos aprender de las búsquedas realizadas.

Recientemente los investigadores de Principia Cybernética ,han implementado y probado un sistema que usa los caminos de navegación de los usuarios, para establecer y ajustar dinámicamente las conexiones entre las redes de hypertexto, operando en la medida de sus relaciones asociativas y recurrencia frecuente de conexiones. La dinámica reactualizada de la estructura de las redes se manifiesta a través de un orden, que muestra primordialmente aquellas conexiones con un mayor peso asociativo. Por el momento, los investigadores en esta área creen que así como el paradigma del WWW, limitado como está hoy en día, por la función de distribución de hypertexto e hypermedia a través de las redes de comunicación, mejorará al incorporar los algoritmos adecuados y, podría llegar a futuro a constituirse en un sistema que optimizará las estructuras globales de las redes de hypertexto, de manera tal que su estructura final validará y reflejará de manera eficaz las asociaciones intuitivas de los browsers. Así en el futuro las redes de usuarios conectadas al "cerebro global" podrán obtener conocimiento real del supersistema, actuando como neuronas del cerebro global, probablemente usando la moneda de entregar a su vez parte de su propio conocimiento, en vez de un acceder pasivo, como la herencia de un meme eficaz en este proceso de adaptación a la nueva simbiosis global.

Por otra parte, otros núcleos de investigadores comienzan a trazar mediante el uso de sistemas de información geográfica, los mapas topológicos de las interacciones entre nodos y polígonos en el espacio virtual, produciendo de este modo una cybercartografía del espacio, la cual podría constituirse en otra valiosa herramienta heurística para avanzar en el conocimiento de las interacciones entre los múltiples nodos y sus asociaciones más recurrentes. De esta manera podríamos aprender más sobre cómo se estructuran estas redes en el cyberespacio, y descubrir en tiempo real cuales nodos funcionan asociados con otros más frecuentemente. Esto es posible dado que las direcciones IP de los nodos se pueden convertir a coordenadas geográficas dada su estructura, y por último en un sistema móvil de comunicaciones entre usuarios y nodos es posible técnicamente geoposicionarlas en tiempo real, usando las interfaces adecuados, mediante los sistemas de posicionamiento global (GPS). No sabemos a ciencia cierta qué nos depara la vorágine del futuro cercano, pero sin duda ello tendrá una clara repercusión en nuestros sistemas de conocimiento y en el advenimiento de probablemente una nueva revolución cibernética.


Epílogo: Breve Introducción a Internet

Hace sólo 7 años atrás, durante la ejecución de un proyecto de investigación en arqueología (Fondecyt 0679-90),que tenía como objetivo estudiar la evolución de la adaptación de las poblaciones humanas al medioambiente marino en latitudes altas (canal Beagle),la participación como co-investigador ad-honorem del Dr. Paul Ossa de la Universidad de La Trobe en Australia, nos obligó a buscar un sistema eficiente y rápido de comunicaciones para intercambiar nuestras bases de datos y procesar la información generando un enfoque interactivo de la investigación a distancia.

En ese momento la solución fue la llamada red académica Bitnet. Esta red estaba disponible en la Universidad de Chile, en virtud de un convenio establecido entre el centro de estudio espaciales de la Universidad y la NASA (National Aeronautics Space Agency), gracias a la necesidad de la NASA de construir en Isla de Pascua una pista de aterrizaje alternativa para el programa de los transbordadores espaciales. Los enlaces satelitales entre los servidores remotos se hacían a través de la Universidad de Maryland (que además era la puerta de acceso en EE.UU.) y, de ahí, hacia el backbone de la NSF y el nodo del CERN en Europa, en dónde mas tarde se inventó el WWW.

La red establecida en la Universidad tenía al comienzo algunos pocos nodos principales, que estaban conectados mediante enlaces dedicados, trabajando en ambiente unix con el programa shell. De manera tal, que había que conseguir alguna cuenta que habilitara el administrador de sistemas, y usar un terminal del tipo IBM 3270. Había en consecuencia que aprender algo de unix y de manejo del shell para poder operar eficientemente, tanto para transferencia de archivos con el software kermit y los protocolos AT/IP, como para los "netnote" del correo electrónico y el uso de los otros comando principales del ambiente para comunicaciones como eran, y son, "tel", "talk", entre muchos otros, para manejo interno de los archivos y consultas a los operadores y el sistema. Como asimismo programas como el "ed" y el "joe", editor de textos y otros. La otra complicación, para los que no éramos expertos en el tema, la constituía la memorización de las funciones del teclado del terminal del F1 al F13. En suma, ese era el precio que había que pagar para operar dentro de la red Bitnet, el aprendizaje parcial de la articulación de un nuevo "lenguaje" de comunicación. Esta red satelital de comunicaciones e información tuvo como origen casi el mismo que han tenido todos los sistemas cibernéticos, y de percepción remota, el Departamento de Defensa de los Estados Unidos de Norteamérica y la redes satelitales de la NASA y del mismo DDN (Department of Defense Network). No es un hecho totalmente extraño al desarrollo de la cibernética. Debemos recordar que el padre de la cibernética de primer orden, Norbert Wiener, en 1940 creó el primer proceso de automatización para las defensas antiaéreas.

La democratización de los procesos de interacción en las comunidades académicas globales, la historia anterior al Web.

El comando talk de las cuentas shell ($) -que es el intérprete de comandos entre el sistema y el usuario en las redes académicas mundiales llamadas bitnet e internet, por nombrar a las principales, y otras redes de características similares interconectadas al "backbone" de la NSF- posibilitan una interpelación directa a cualquier usuario de las redes que tuviera una cuenta habilitada. La interpelación que posibilita el comando talk es de tal naturaleza que interrumpe cualquier planilla de trabajo remota en el ambiente unix de las cuentas shell directamente, obligando al usuario receptor a tomar una acción, ya sea respondiendo el mensaje o rechazándolo.

Sintaxis : TEL FULANO AT UBVM .UNIVERSIDAD.BITNET

talk fulano@universidad.edu

De modo tal, que un usuario de cualquier nivel académico está en posición de abordar a cualquier otro usuario del mismo o distinto nivel. Las cuentas shell de las redes mundiales estuvieron operando como únicos recursos, aunque continúan haciéndolo hasta hoy día de manera más limitada, hasta antes de la creación del WWW (internet). Este atributo "democrático" de las redes en el ambiente Unix - shell, al igual que la posibilidad de acceso en tiempo diferido que tiene el e-mailing de los sistemas de comunicación a través de la red mundial integrada de computadores mencionada, creó una crisis de rechazo académico a este nuevo paradigma comunicacional hace unos 5 años atrás. En varias universidades europeas los "professors" de diversas áreas del conocimiento, aún los del área de ingeniería y cibernética, se quejaron amarga y sentidamente por esta "invasión" a sus esferas de privacía y dignidad académica, que los dejaba abiertamente a merced de cualquier estudiante compulsivo, que además no había hecho ni cita previa, ni cumplido con todo el ceremonialismo de la antesala y lobbing, para ser recibido por la autoridad del maestro. En esa época, cientos de mails se agregaban a las listas de discusión en la red, quejándose de esta particularidad del proceso. Los académicos pedían un acceso restringido a las redes de comunicación. La exposición a la contingencia a que se refiere Luhmann, en este caso asimétrica, llegó a su nivel más alto en aquellos días. Esta fue una de las diferencias más importantes en lo que se refiere al nivel de las comunicaciones interpersonales. Lo cierto es que el proceso de democratización informática e interacciones de múltiples usuarios en el "Cyberespacio" (Gibson, W. 1984), no se detendría y, crecientemente, la realidad se acerca a la descrita por los cyberpunks de la literatura de ciencia ficción posmoderna de mediados de los 80, excepto en sus profecías más pesimistas respecto al desarrollo de una sociedad poseída por redes corporativas intrigantes.

El WWW

De aquí en adelante ocurrieron cambios revolucionarios en el lenguaje de las redes interconectadas, como es la aplicación de la tecnología del hypertexto y la hypermedia a la red Internet ( Krol, Ed.1992) a comienzos de los años 90. Esta aplicación se originó en Europa en el CERN , el laboratorio europeo de física de partículas. Luego se generalizó (1992-3) el uso de los browsers para accesar el hypertexto y la hypermedia en general, este último término se usa para designar la técnica que permite incorporar no sólo texto, sino, gráfica, video y sonido a nivel de las redes, en que cada palabra o icono lleva a otro enlace y se va expandiendo sucesivamente, relacionando datos de hypermedia en distintas fuentes. Con un número creciente de usuarios, muchos ya trabajan vía conmutada, a través de un modem y una línea telefónica local y un PC operando sobre cualquier plataforma operativa, lo cual posibilitaba un acceso desde cualquier lugar en que exista una línea telefónica (aunque esta posibilidad estaba presente desde antes con la red bitnet). Hoy en día, los enlaces pueden ser también a través de ondas de radio, celular o directamente vía satélite, siendo la elección dependiente del desarrollo de las interfaces, su costo y facilidad de acceso. En los últimos años la Internet ha incrementado y expandido su base de individuos y organizaciones conectados, ampliándola de la base académica original a corporaciones, agencias gubernamentales, grupos de interés diverso, agencias internacionales, empresas, etc., convirtiéndola en una infraestructura de información e interacciones de complejidad emergente. Este crecimiento explosivo del Web en 5 años se debe, en parte, a la introducción de los llamados browsers, que son los software que permiten accesar las direcciones URL, los documentos de hypermedia y navegar, como fue Mosaic en sus inicios, reemplazado y superado por el actual líder Netscape, que ya va en su cuarta versión y por la competencia del Explorer de Microsoft, todos cada vez más sofisticados por la introducción de plugins, updates y controles como active X de Microsoft y lenguajes como Java. Mientras tanto el desarrollo de otros software de correo electrónico, Chat-relay, para grupos de intereses comunicándose en tiempo real, videoconferencia, y desarrollo de aplicacionesVRML de realidad virtual, así como avances entre interfaces, hardware y mejoras en los sistemas de comunicaciones, han corrido también la misma vertiginosa carrera. El WWW, o el web como suele llamársele, es en suma una gran red global de nodos entrelazados que contienen información diversa en forma de textos, sonidos, música, video y cualquier otra forma de multimedios, que está conectada a través de "hyperlinks" formando hipernodos que pueden representar ideas y conceptos complejos, más allá del simple nivel individual.

  • Carlos Ocampo Ercilla
  • http://www.moebio.uchile.cl/03/frprin02.htm

    Participar en el Foro