Concepto de inteligencia artificial en informatica

Concepto de inteligencia artificial en informatica

Visión por ordenador

Algunos relatos populares utilizan el término «inteligencia artificial» para describir las máquinas que imitan las funciones «cognitivas» que los humanos asocian con la mente humana, como el «aprendizaje» y la «resolución de problemas», sin embargo, esta definición es rechazada por los principales investigadores de la IA[b].

A medida que las máquinas son cada vez más capaces, las tareas que se consideran que requieren «inteligencia» se eliminan a menudo de la definición de IA, un fenómeno conocido como efecto IA[3]. Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA,[4] al haberse convertido en una tecnología rutinaria[5].

La inteligencia artificial se fundó como disciplina académica en 1956, y en los años posteriores ha experimentado varias oleadas de optimismo,[6][7] seguidas de decepción y pérdida de financiación (lo que se conoce como «invierno de la IA»),[8][9] seguidas de nuevos enfoques, éxito y financiación renovada.[7][10] La investigación en IA ha probado y descartado muchos enfoques diferentes desde su fundación, incluyendo la simulación del cerebro, la modelización de la resolución de problemas humanos, la lógica formal, las grandes bases de datos de conocimiento y la imitación del comportamiento animal. En las primeras décadas del siglo XXI, el aprendizaje automático estadístico altamente matemático ha dominado el campo, y esta técnica ha demostrado ser muy exitosa, ayudando a resolver muchos problemas desafiantes en la industria y el mundo académico[11][10].

Meta

La inteligencia artificial (IA) es una herramienta de gran alcance que permite replantear la forma en que integramos la información, analizamos los datos y utilizamos los conocimientos resultantes para mejorar la toma de decisiones, y ya está transformando todos los ámbitos de la vida. En este informe, Darrell West y John Allen analizan la aplicación de la IA en diversos sectores, abordan los problemas de su desarrollo y ofrecen recomendaciones para sacar el máximo partido de la IA sin dejar de proteger importantes valores humanos.

La mayoría de la gente no está muy familiarizada con el concepto de inteligencia artificial (IA). A modo de ejemplo, cuando en 2017 se preguntó a 1500 líderes empresariales de alto nivel en Estados Unidos sobre la IA, solo el 17% dijo estar familiarizado con ella.1 Varios de ellos no estaban seguros de lo que era o de cómo afectaría a sus empresas en particular. Comprendían que existía un potencial considerable para alterar los procesos empresariales, pero no tenían claro cómo podría desplegarse la IA en sus propias organizaciones.

A pesar de su desconocimiento generalizado, la IA es una tecnología que está transformando todos los ámbitos de la vida. Es una herramienta de gran alcance que permite a las personas replantearse la forma en que integramos la información, analizamos los datos y utilizamos los conocimientos resultantes para mejorar la toma de decisiones. Con esta exhaustiva visión de conjunto esperamos explicar la IA a un público formado por responsables políticos, líderes de opinión y observadores interesados, y demostrar cómo la IA ya está alterando el mundo y planteando importantes cuestiones para la sociedad, la economía y la gobernanza.

Artículo sobre inteligencia artificial

Este informe se centra en la inteligencia artificial (IA) y en la tecnología de la interfaz persona-ordenador (HCI). Las observaciones, conclusiones y recomendaciones relativas a la IA y la HCI se presentan en términos de seis áreas de grandes retos que sirven para identificar cuestiones y oportunidades científicas y de ingeniería clave. El capítulo 1 presenta las definiciones del grupo de expertos de estos términos y otros relacionados. El capítulo 2 presenta las observaciones y recomendaciones generales del grupo en relación con la IA y la HCI. Por último, el capítulo 3 analiza las ciencias de la computación, la IA y la HCI en función de las seis áreas de «gran reto» seleccionadas y de tres horizontes temporales, es decir, a corto plazo (dentro de los próximos 2 años), a medio plazo (de 2 a 6 años) y a largo plazo (dentro de más de 6 años), y presenta recomendaciones adicionales en estas áreas.

Las disciplinas científicas y de ingeniería que conforman o están estrechamente relacionadas con la IA y la HCI son de origen relativamente reciente. Se remontan, como mínimo, a los años 50, y el primer artículo de la enciclopedia sobre IA aparece en 1967. La IA y la HCI han cambiado y se han expandido rápidamente tanto en su contenido intelectual como en su aplicación, especialmente en la última década. El reciente ritmo acelerado de cambio se ha debido en gran medida a las innovaciones y desarrollos de productos casi impresionantes en las tecnologías de apoyo de la microelectrónica, la electroóptica y las pantallas, todas ellas áreas de uso intensivo de hardware.

Datarobot, inc.

En la primera mitad del siglo XX, la ciencia ficción familiarizó al mundo con el concepto de robots artificialmente inteligentes. Comenzó con el «desalmado» hombre de hojalata del Mago de Oz y continuó con el robot humanoide que se hacía pasar por María en Metrópolis. En la década de 1950, teníamos una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial (o IA) asimilado culturalmente en sus mentes. Uno de ellos fue Alan Turing, un joven polímata británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos utilizan la información disponible además de la razón para resolver problemas y tomar decisiones, así que ¿por qué las máquinas no pueden hacer lo mismo? Este era el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que discutía cómo construir máquinas inteligentes y cómo probar su inteligencia.

Por desgracia, hablar es barato. ¿Qué impidió a Turing ponerse a trabajar en ese mismo momento? En primer lugar, los ordenadores tenían que cambiar fundamentalmente. Antes de 1949 los ordenadores carecían de un requisito clave para la inteligencia: no podían almacenar órdenes, sólo ejecutarlas. En otras palabras, se podía decir a los ordenadores lo que tenían que hacer, pero no podían recordar lo que hacían. En segundo lugar, la informática era extremadamente cara. A principios de la década de 1950, el coste de alquilar un ordenador ascendía a 200.000 dólares al mes. Sólo las universidades de prestigio y las grandes empresas tecnológicas podían permitirse el lujo de adentrarse en estas aguas inexploradas. Para convencer a las fuentes de financiación de que la inteligencia artificial era una actividad que merecía la pena, se necesitaba una prueba de concepto y el apoyo de personas de alto nivel.

Usamos cookies para asegurar que le damos la mejor experiencia en nuestra web. Si continúa usando este sitio, asumiremos que está de acuerdo con ello. Nuestros socios (incluye a Google) podrán compartir, almacenar y gestionar sus datos para ofrecerle anuncios personalizados    Más información
Privacidad