Inteligencia artificial para dummies
Inteligencia artificial para dummies pdf download
¿Está pensando en Chappie, Terminator y Lucy? Los robots inteligentes y autoconscientes están más cerca de ser una realidad de lo que cree. Desarrollar sistemas informáticos que igualen o superen la inteligencia humana es el quid de la inteligencia artificial. La Inteligencia Artificial (IA) es el estudio de las ciencias de la computación que se centra en el desarrollo de software o máquinas que exhiben inteligencia humana. Una definición bastante sencilla, ¿verdad?
Los principales objetivos de la IA son la deducción y el razonamiento, la representación del conocimiento, la planificación, el procesamiento del lenguaje natural (PNL), el aprendizaje, la percepción y la capacidad de manipular y mover objetos. Los objetivos a largo plazo de la investigación en IA incluyen lograr la creatividad, la inteligencia social y la inteligencia general (a nivel humano).
La IA ha influido mucho en diferentes sectores que quizá no reconozcamos. Ray Kurzweil dice que «muchos miles de aplicaciones de IA están profundamente integradas en la infraestructura de cada industria». John McCarthy, uno de los fundadores de la IA, dijo una vez que «en cuanto funciona, ya nadie la llama IA».
Inteligencia artificial para dummies pdf free download
La inteligencia artificial (a menudo utilizada brevemente como «IA») no es un fenómeno nuevo, pero sólo recientemente se ha convertido en la comidilla de la ciudad. Si se siente confundido por las múltiples descripciones -a menudo incluso controvertidas- de lo que es o no es la inteligencia artificial, es completamente justo. Teniendo en cuenta que no hay acuerdo sobre la definición de inteligencia artificial, y que la tecnología que puede englobarse bajo este término está cambiando a gran velocidad, es difícil precisar qué es realmente la inteligencia artificial. En este artículo trataremos de arrojar algo de luz sobre lo que significa la inteligencia artificial, si es algo bueno o malo, y examinar lo que le puede deparar el futuro.
Breve historia de la inteligencia artificialA principios de los años 50, John Von Neumann y Alan Turing revolucionaron los ordenadores del siglo XIX y construyeron la arquitectura de nuestras máquinas contemporáneas. Junto con la búsqueda de la forma de aunar el funcionamiento de las máquinas y el de los humanos, la época dio lugar a visiones sobre lo que los ordenadores podrían llegar a conseguir. Un evento celebrado en 1956, organizado por John McCarthy y Marvin Minsky, pretendía suscitar debates sobre las posibilidades que ofrecían estos avances tecnológicos. Durante este taller también se acuñó el término «inteligencia artificial».
Introducción a la inteligencia artificial
Hoy en día es una de las palabras de moda en los negocios y la industria. La tecnología de IA es un eje crucial de gran parte de la transformación digital que tiene lugar hoy en día, ya que las organizaciones se posicionan para capitalizar la cantidad cada vez mayor de datos que se generan y recopilan.
¿Cómo se ha producido este cambio? Bueno, en parte se debe a la propia revolución del Big Data. El exceso de datos ha conducido a la intensificación de la investigación sobre las formas de procesarlos, analizarlos y actuar sobre ellos. Como las máquinas son mucho más adecuadas que los humanos para este trabajo, el objetivo es entrenarlas para que lo hagan de la forma más «inteligente» posible.
Al fin y al cabo, los seres humanos hemos demostrado ser los únicos capaces de interpretar el mundo que nos rodea y de utilizar la información que recogemos para provocar el cambio. Si queremos construir máquinas que nos ayuden a hacer esto de forma más eficiente, entonces tiene sentido utilizarnos a nosotros mismos como modelo.
Así pues, la IA puede considerarse como una simulación de la capacidad de pensamiento abstracto, creativo y deductivo -y, en particular, de la capacidad de aprendizaje a la que da lugar- utilizando la lógica digital y binaria de los ordenadores.
La inteligencia artificial de cabeza
La inteligencia artificial (IA) hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevas entradas y realicen tareas similares a las humanas. La mayoría de los ejemplos de IA de los que se oye hablar hoy en día -desde ordenadores que juegan al ajedrez hasta coches que se conducen solos- se basan en gran medida en el aprendizaje profundo y el procesamiento del lenguaje natural. Gracias a estas tecnologías, se puede entrenar a los ordenadores para que realicen tareas específicas procesando grandes cantidades de datos y reconociendo patrones en ellos.
Las primeras investigaciones sobre IA en la década de 1950 exploraron temas como la resolución de problemas y los métodos simbólicos. En los años 60, el Departamento de Defensa de EE.UU. se interesó por este tipo de trabajo y comenzó a entrenar a los ordenadores para que imitaran el razonamiento humano básico. Por ejemplo, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) llevó a cabo proyectos de cartografía de calles en la década de 1970. Y DARPA produjo asistentes personales inteligentes en 2003, mucho antes de que Siri, Alexa o Cortana fueran nombres conocidos.
Estos primeros trabajos allanaron el camino para la automatización y el razonamiento formal que vemos hoy en día en los ordenadores, incluidos los sistemas de apoyo a la toma de decisiones y los sistemas de búsqueda inteligente que pueden diseñarse para complementar y aumentar las capacidades humanas.