jueves, 27 de marzo de 2014

La Conferencia de Dartmouth

1. Detalles de la Conferencia
La conferencia de Dartmouth se celebró en el verano de 1956 en el Dartmouth College en Hanover (Estados Unidos). En esta conferencia se reunió un grupo de 10 científicos para discutir acerca de las máquinas y su posibilidad de comportarse de manera inteligente.


2. Objetivo de la Conferencia
El intercambio de ideas en la conferencia tenía el propósito de construir una máquina que fuera capaz de realizar funciones que cayeran fuera del puro cálculo numérico, es decir, se pretendía sacar a las computadoras de su uso exclusivo como calculadoras, para tratar de que llevasen a cabo acciones inteligentes.

3. Convivencia entre los Participantes
Todos los participantes compartían la creencia de que lo que llamamos pensamiento podía tener lugar fuera de la mente humana, que podía ser entendido de una manera formal y que el mejor instrumento no humano para llevarlo a cabo era la computadora digital.

4. Invitados/Participantes a la Conferencia
Pioneers of artificial intelligence reconvened at Dartmouth for the


Entre las personas que invitaron estaban:

Trenchard More


[IMAGEN NO DISPONIBLE]


Trenchard More es profesor en la Universidad de Dartmouth . Participó en el Proyecto de Investigación 1956 Dartmouth Summer sobre Inteligencia Artificial. En la reunión del 50 aniversario de la Conferencia de Dartmouth con Marvin Minsky , Geoffrey Hinton y Simon Osindero presentó el futuro de los modelos de red y también dio una conferencia titulada Rutas hacia la Cumbre. Diseñado para una teoría matriz rectangular anidada que proporciona una estructura formal utilizado en el desarrollo de la matriz anidada Interactivo Idioma .


Arthur Samuel

arthur



Nace en 1901 y muere en 1990. Samuel era un hombre modesto, y la importancia de su trabajo fue reconocida extensamente solamente después de su retiro de la IBM en 1966.


Pionero de la investigación de la inteligencia artificial. Hizo un gran trabajo acerca del aprendizaje de las computadoras a través de su experiencia. Su vehículo para esto era el juego de inspectores. Los juegos son convenientes para la inteligencia artificial porque es fácil comparar el funcionamiento de la computadora con el de la gente. 


Debido a que su trabajo del “inspector” era uno de los ejemplos más tempranos del cómputo no numérico, Samuel influenció en gran medida el sistema de instrucción de computadoras de IBM tempranas. 


Oliver Selfridge 

Oliver Gordon Selfridge


Oliver Gordon Selfridge (10 mayo 1926 hasta 3 diciembre 2008). Fue un pionero de la inteligencia artificial. Se le ha llamado el "Padre de la Percepción de la máquina". Selfridge, nacido en Inglaterra, era un nieto de Harry Gordon Selfridge , fundador de Selfridges almacenes. Luego se convirtió en un estudiante de post-grado de Norbert Wiener 's en el MIT , pero no escribió su tesis doctoral y nunca obtuvo un doctorado Mientras que en el MIT, se desempeñó como uno de los críticos anteriores de libro Cibernética de Wiener en 1949. 


Él también era técnicamente un supervisor de Marvin Minsky , y ayudó a organizar la primera reunión pública en la inteligencia artificial (IA) con Minsky en 1955. Selfridge escribió importantes trabajos tempranos acerca de las redes neuronales, el reconocimiento de patrones y aprendizaje automático , y su papel de "Pandemonium" (1959) es generalmente reconocido como un clásico de la inteligencia artificial . 


Ray Solomonoff 




Ray Solomonoff (julio 25, 1926 hasta diciembre 7, 2009) fue el inventor de la probabilidad algorítmica, y el fundador de la teoría algorítmica de la información. Él era un autor de la rama de la inteligencia artificial basada en el aprendizaje automático, la predicción y la probabilidad. 

Se distribuyó el primer informe sobre el aprendizaje automático no-semántico en 1956. Solomonoff describió por primera vez la probabilidad algorítmica en 1960, publicando el teorema fundamental que lanzó Complejidad de 
Kolmogorov y teoría de la información algorítmica. Se describió por primera vez estos resultados en una conferencia en el Caltech en 1960, y en un informe, febrero de 1960, "un informe preliminar sobre una teoría general de la inferencia inductiva". 

Solomonoff fundó la teoría de los universales de inferencia inductiva , que se basa en fundamentos filosóficos sólidos y tiene su raíz en la complejidad de Kolmogorov y teoría de la información algorítmica. Aunque es más conocido por la probabilidad algorítmica y su teoría general de la inferencia inductiva, hizo muchos otros descubrimientos importantes durante toda su vida, la mayoría de ellas dirigidas hacia su meta en la inteligencia artificial: el desarrollo de una máquina capaz de resolver problemas difíciles usando métodos probabilísticos.



Allen Newell  


Primer presidente de la Asociación Americana de Inteligencia Artificial.

Allen Newell nació en San Francisco, el 19 de Marzo de  1927. Hijo del Dr. Roberto R. Newell, profesor distinguido de la radiología en la escuela médica de Stanford. Allen se graduó en la High School secundaria, mientras que la 2ª guerra mundial terminaba, trabajó durante el verano en un astillero, y después  se alistó en la marina de Estados Unidos.

Al terminar su servicio en la marina, Allen ingresó en la universidad de Stanford, en donde estudió física. Un año en matemáticas (1949-50) como estudiante graduado en Princeton y el descubrimiento de la teoría de juegos, inventada poco antes por Von Neumann y Morgenstern, convencieron a Allen de que prefería una combinación de investigación teórica y práctica ante las matemáticas puras. Se tomó un descanso en Princeton y encontró un puesto en la RAND Corporation, en Santa Mónica, en un grupo que estaba estudiando problemas logísticos de las Fuerzas Aéreas. 

Dos informes técnicos que escribió junto con Joseph B. Kruscal ("A Model for Organization Theory" (1950) y "Formulating Precise Concepts in Organization Theory" (1951)) demuestran su interés en aquella época por la aplicación de métodos formales a fenómenos empíricos complejos. Ambos informes adoptaron un estilo de axiomatización que fue novedoso en la teoría de juegos y en la economía.

En Septiembre de 1954 Allen asistió a un seminario en RAND en el que Oliver Selfridge de los Laboratorios Lincoln describió el funcionamiento de un programa que aprendía a reconocer letras y otros diseños. Mientras escuchaba a Selfridge caracterizando su sistema operativo, Allen experimentó lo que siempre ha referido como su "experiencia de conversión". Le dejó claro "que los sistemas inteligentes adaptativos podrían construirse y que serían bastante más complejos que cualquier cosa que ya existía".

Al conocimiento que Allen ya tenía sobre ordenadores (incluidas sus capacidades simbólicas), heurística, procesamiento de información en organizaciones, cibernética y propuestas de programas de ajedrez, ahora se añadía una demostración concreta de la viabilidad de la simulación por ordenador de los procesos complejos. Entonces se comprometió consigo mismo a comprender el aprendizaje y pensamiento humano simulándolo. El estudiante de organizaciones se convirtió en un estudiante de la mente.



Herbert Simon 



Ganó el Premio Nobel de Carnegie-Mellon University.

Nace el 15 de junio de 1916 – Muere el 9 de febrero de 2001. Era investigador en los campos de la psicología cognoscitiva , de la informática , de la administración pública , de la economía y de la filosofía. Su padre era un ingeniero eléctrico que había venido a los Estados Unidos de Alemania en 1903 después de ganar su diploma de la ingeniería en el Technische Hochschule of Darmstad. 


Educaron a Herbert Simon de niño en el sistema escolar público en Milwaukee donde él desarrolló un interés en ciencia. En 1933, Simon entró en la Universidad de Chicago, y estudió ciencias y matemáticas sociales. De 1939 a 1942, Simon actuaba como director de un grupo de investigación en la Universidad de California, Berkeley. 


De 1950 a 1955 junto con David Hawkins, descubrió y probó el teorema de Hawkins-Hawkins-Simon en las condiciones para la existencia de los vectores positivos de la solución para las matrices de la entrada-salida.   


5. Aportes que se Realizaron
Rockefeller aportó unos 7500 dólares (más o menos la mitad de lo que habían solicitado) y los organizadores invitaron a otras personas que compartían su creencia de que cualquier aspecto del aprendizaje, o cualquier otra faceta de la inteligencia, podía simularse mediante una computadora dotada con un programa adecuado. 

6. Organizadores y sus Compañías
Los cuatro firmantes de la propuesta eran: 

John McCarthy


John McCarthy, científico informático


Le dio el nombre a esta nueva área del conocimiento (Inteligencia Artificial) y estudiaba sistemas capaces de efectuar razonamientos de sentido común.

Fue educado en el pensamiento lógico, y muy aficionado a los libros, mientras trabajaba como carpintero, pescador, organizador sindical e inventor, en 1948 el joven McCarthy se licenció en Matemáticas en el Instituto de Tecnología de California, doctorándose en la misma disciplina en 1951, en la Universidad de Princeton. Tras cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en la Universidad de Stanford en 1962, en la que permaneció como docente e investigador hasta su retiro a finales del 2000. Tras su jubilación fue nombrado Profesor Emérito de dicha universidad.
McCarthy inventó el lenguaje de programación Lisp y publicó su diseño en Comunicaciones del ACM en 1960.
En 1957, John McCarthy fundó, junto con Marvin Minsky, fundó el Laboratorio de Inteligencia Artificial del MIT, y ayudó a motivar la creación del Proyecto MAC. En 1962 se marchó de él, y se fue a la Universidad de Stanford, en la que, en 1963, fundó también el respectivo Laboratorio de IA, que durante muchos años fue un rival amistoso del Proyecto MAC.
En 1961 fue el primero en sugerir públicamente (en un discurso para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).
La idea de una computadora o un sistema informático como servicio era muy popular a fines de la década del 60, pero se desvaneció hacia mediados de los 70 cuando quedó claro que el hardware, software y las tecnologías de telecomunicación simplemente no estaban preparadas. Sin embargo, desde el 2000, la idea reapareció en diferentes formas.
Además del Premio Turing, McCarthy recibió otras varias distinciones, y fue miembro de distintas academias. En 2010 ingresó en el llamado "IEEE Intelligent Systems Hall of Fame".

Marvin Minsky


Fundador del laboratorio de IA del MIT. Trabajaba sobre razonamientos analógicos de geometría

Tras acabar la secundaria se unió a la Marina de los Estados Unidos. Tras dos años de servicio entra en la Universidad de Princeton donde se graduaría en 1950. En la actualidad ocupa la plaza de Profesor Toshiba de los Medios de Comunicación y las Ciencias en el Instituto Tecnológico de Massachusetts (MIT).
Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC "Stochastic Neural Analog Reinforcement Calculator", el primer simulador de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.
Minsky fue consejero en la película 2001: Una odisea del espacio y hay referencias a él tanto en la película como en el libro. Durante la filmación Minsky casi murió en un accidente.
Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael Crichton durante un paseo por la playa deMalibú. En ese punto los dinosaurios fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus conocimientos en biomedicina y concibió los dinosaurios como clones.

Claude Shannon



De los laboratorios Bell de EEUU. 

Circuitos relevadores complejos y álgebra booleana

En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés, se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra booleana, pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.

Álgebra booleana y circuitos digitales

En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio para ingenieros norteamericanos del Instituto Norteamericano Alfred Noble de los Estados Unidos, otorgado cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde, H. H. Goldstine, en su libro Las computadoras desde Pascal hasta Von Neumann, citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.
Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática. En 1940 estudió un máster en ingeniería eléctrica y se doctoró en filosofía matemática.

Laboratorios Bell

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores; Warren Weaver, quien escribió una extensa y aclaradora introducción a su obra La teoría matemática de la comunicación y muchos otros más.

Teoría matemática de la información

Durante este período Shannon trabajó en muchas áreas, y lo más notable fue todo lo referente a la teoría de la información, que se publicó en 1948 con el nombre de Una teoría matemática de la comunicación. En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras detelevisión, etcétera) pueden medirse, y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal. Demostró también que la información se puede transmitir sobre un canal si y solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

Programación de computadoras para el ajedrez

En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.

Nathaniel Rochester



De IBM .

Escribió el primer ensamblador y participó en la fundación del campo de la inteligencia artificial. En 1955, IBM organizó un grupo para estudiar el reconocimiento de patrones , teoría de la información y la teoría de conmutación de circuitos, encabezado por Rochester. Entre otros proyectos, el grupo simuló el comportamiento de las redes neuronales abstractas en un IBM 704 ordenador.

7. Hechos Relacionados con la Conferencia
  1. Uno de los pocos acuerdos logrados en la Conferencia de Dartmouth fue aceptar la propuesta de John McCarthy de darle el nombre de Inteligencia Artificial (IA) a la nueva disciplina que entonces surgía. 
  2. Allen Newell y Herbert Simon (profesores de psicología) habían estado trabajando en un programa de computadora que trataba de realizar operaciones similares a las que realiza el ser humano en sus actividades de pensamiento.
  3. Aunque en lo inmediato el esfuerzo de Newell y Simon no fue apreciado en toda su medida, Marvin Minsky, mirando la conferencia a una distancia de doce años, dijo lo siguiente:  “Algunos de nosotros acudimos con grandes ideas de cómo hacer cosas con las máquinas, pero los únicos que para aquellos momentos tenían una idea clara de lo que era un programa, así como lo que esto significaba, y al mismo tiempo, los únicos que realmente presentaron un programa real que fuera capaz de realizar algo similar a lo que constituye un proceso humano superior fueron Newell y Simon; mientras los demás hablábamos, ellos habían alcanzado ya muchas cosas” [Delclaux & Seoane, 1982, p. 26].
  4. Simon, por su lado, hizo el siguiente comentario: “La conferencia se dispersó en todas direcciones. Ellos no querían recibir nada de nosotros (Simon & Newell); y nosotros, por supuesto, nada de ellos, pues teníamos algo que enseñarles. En cierto sentido, lo más gracioso de todo esto fue que ya habíamos realizado el prototipo de lo que ellos estaban investigando, y que no le prestaran atención. Pero esto no tiene nada de excepcional: las personas desconfían siempre de lo que ellas mismas no han inventado.” [Ikonicoff, 1999, p. 113].
  5. A partir de la conferencia de Darmouth, casi todas las autoridades en Inteligencia Artificial, procuran producir en una computadora un resultado de salida, que en caso de ser expuesto  por seres humanos, se considerará inteligente.
  6. Así, algunas posiciones dan énfasis al diseño de los programas, otras acentúan la importancia de los lenguajes de programación, otras involucran tanto en la producción de Inteligencia, al Software como al Hardware.
  7. Al respecto Marvin Misnky ha dado la siguiente definición: "la inteligencia artificial es la ciencia de hacer máquinas que hagan cosas que requerirán inteligencia si las hicieran los hombres".
8. Inteligencia Artificial en las Universidades: Universidades Líderes en IA y Centros Universitarios de Investigación en IA

1. Universidad Europea Madrid
GSI – Grupo de investigación en Sistemas Inteligentes

Líneas de Investigación de GSI

2.  Universidad Politécnica de Madrid

3. Universidad de Oviedo


En este Centro se realizan investigaciones en las siguientes líneas: Aprendizaje Automático: con el objetivo de construir sistemas que dispongan de una de las habilidades que asociamos a la inteligencia en los seres humanos: su capacidad para aprender.

4. Universidad latina de Costa Rica
Robótica e inteligencia artificial:

5. Universidad de Pereira Colombia

6. Universidad de Malaga

7. IAIA - Investigation and Application of Artificial Intelligence

8. Universidad de Granada
Grupo de investigación ARAI: Razonamiento Aproximado e Inteligencia Artificial.

9. Universidad de Stanford

La investigación IA en Stanford se realiza en sistemas expertos basados en reglas y en robótica.

10. Universidad Carnegie-Mellon (CMU)

Entre los investigadores que han estado en mayor o menor grado ligados a CMU, se encuentran Ed Feigenbaum, Doug Lenat, John McDermott y Raj Reddy.
.
11. Instituto Tecnológico de Massachusets (MIT)
El estudio de la naturaleza de los cerebros y de las máquinas ha tenido una gran tradición en MIT. 

9. IA y Firmas Comerciales

1. La empresa alicantina Delta-R, ha desarrollado unos innovadores modelos matemáticos cuyo objetivo es predecir la probabilidad de entrada en morosidad de una operación. El objetivo de este desarrollo consiste en probar la efectividad de las redes neuronales, técnica encuadrada de lo que se conoce como inteligencia artifical.

2. Un equipo de la fundación Bruno Kessler de Trento, en Italia, desarrollo un software basado en inteligencia artificial capaz de producir atractivos nombres para nuevas marcas comerciales. A partir del estudio de 1000 marcas como base, los expertos desglosaron paso a paso el proceso minio que sigue los profesionales del marketing para crear un nuevo nombre.

3. Digital Equipment Corp, Westinghouse, Air Force Office of Scientific Research, Alcoa, McDonnell Douglas, Lexis y westlaw.

10. Compañías Especializadas en Investigación en IA
  1. Artificial Intelligence Corporation (Al Corp.): El presidente y fundador de la Compañía es Larry Harris, que anteriormente había sido profesor en el Departamento de Informática de Dartmouth College y había hecho investigación en el procesamiento de lenguaje natural. El principal productor de AlCorp. Es Intellec, sistema de lenguaje natural diseñado en 1979 como interfaz entre ordenador y usuarios y que permite comunicarse en inglés.
  2. Bolt, Beranek y Newman (BBN): BBN ha sido pionera en la exploración comercial de la IA con contribuciones significativas en el procesamiento de lenguaje natural, representación del conocimiento, enseñanza inteligente asistida por ordenador y reconocimiento del habla. Se la considera, con Xerox PARC, una de las empresas más antiguas de IA comercialmente activas.
  3. Grupo Camegie: Fue fundado en 1983 aprovechando la fuente de investigadores de IA que supone la CMU, y está especializada en la aplicación de IA a la fabricación. Asimismo ofrece un amplio espectro de cursos y seminarios de las distintas facetas de IA.
  4. Cognitive Systems: Es una compañía que desarrolla y vende unidades de entrada de lenguaje natural. Fue fundada en 1979 por Roger Schank, cabeza del grupo de IA en la Universidad de Yale y autor de El computador cognitivo, que expone los fundamentos de la IA y del procesamiento del lenguaje natural.
  5. LISP Machine Inc. (LMI): Fue fundada por Richard Greenblatt en 1980 y fabrica ordenadores basados en la investigación realizada en MIT, especialmente diseñados para aplicaciones de inteligencia artificial. El principal producto de la compañía en Lambda, que adopta una arquitectura del computador desarrollada en MIT llamada NuBus. LMI pertenece parcialmente a Texas Instruments, que también usa el NuBusen el sistema Explorer.
  6. Symbolics: Fundada en 1980 por alumnos del Laboratorio de IA en el MIT. Symbolics ofrece el 3600, máquina LISP que compite con el Lambda de LMI. Ambas utilizan diseños desarrollados en el Laboratorio de IA en el MIT. El 3600 de Symbolics es la máquina LIPS más popular que está en uso actualmente.
  7. Teknowledge: Esta compañía se anuncia a si misma como “la única fuente que proporciona tecnología de ingeniería del conocimiento”. Fue la primera compañía que desarrolló y comercializó sistemas expertos. Dirigida por Edward Feigenbaum. Teknowledge“ aspira a construir sistemas de conocimiento para resolver problemas que son incapaces de resolver por otras tecnologías”.
Video Realizado por el Grupo sobre la Conferencia de Dartmouth



No hay comentarios.:

Publicar un comentario