Neural Computing Architectures: The Design of Brain-Like Machines
Parallel Distributed Processing, de McClelland y Rumelhart, fue el primer libro que presentó una descripción definitiva del nuevo paradigma conexionista/red neuronal para la inteligencia artificial y la ciencia cognitiva. Aunque Neural Computing Architectures aborda los mismos temas, las investigaciones que recoge apenas se solapan.
Estas 18 contribuciones ofrecen una oportuna e informativa visión de conjunto y sinopsis de la investigación conexionista europea, tanto pionera como reciente. Varios capítulos se centran en el modelado cognitivo; sin embargo, la mayor parte de los trabajos tratados giran en torno a la teoría abstracta de las redes neuronales o a aplicaciones de ingeniería, aportando importantes perspectivas complementarias a los trabajos publicados actualmente en PDP. En cuatro partes, los capítulos abordan la computación neuronal desde la perspectiva clásica, incluyendo tanto trabajos fundacionales como actuales la perspectiva matemática (de lógica, teoría de autómatas y teoría de probabilidades), presentando trabajos menos conocidos en los que la neurona se modela como una función de verdad lógica que puede implementarse de forma directa como una memoria de sólo lectura de silicio.
Presentan material nuevo tanto en forma de herramientas y modelos analíticos como de sugerencias para su implementación en forma óptica, y resumen la perspectiva PDP en un único capítulo ampliado que abarca la teoría PDP, su aplicación y la especulación en la investigación estadounidense. Cada parte está introducida por el editor.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)