Articulo sobre inteligencia artificial

Articulo sobre inteligencia artificial

ámbito de la inteligencia artificial

El peligro de que las máquinas con inteligencia artificial cumplan nuestras órdenes es que no seamos lo suficientemente cuidadosos con lo que deseamos. Las líneas de código que animan a estas máquinas carecen inevitablemente de matices, se olvidan de especificar las advertencias y acaban dando a los sistemas de IA objetivos e incentivos que no se ajustan a nuestras verdaderas preferencias.
El filósofo de Oxford Nick Bostrom planteó en 2003 un experimento mental ya clásico que ilustra este problema. Bostrom imaginó un robot superinteligente, programado con el objetivo aparentemente inocuo de fabricar clips. El robot acaba convirtiendo el mundo entero en una gigantesca fábrica de clips.
El ejemplo más alarmante es uno que afecta a miles de millones de personas. YouTube, con el objetivo de maximizar el tiempo de visualización, despliega algoritmos de recomendación de contenidos basados en la IA. Hace dos años, informáticos y usuarios empezaron a notar que el algoritmo de YouTube parecía conseguir su objetivo recomendando contenidos cada vez más extremos y conspiranoicos. Una investigadora informó de que, después de ver imágenes de los mítines de la campaña de Donald Trump, YouTube le ofrecía a continuación vídeos con «diatribas de supremacistas blancos, negaciones del Holocausto y otros contenidos perturbadores». El enfoque del algoritmo para subir de nivel fue más allá de la política, dijo: «Los vídeos sobre el vegetarianismo llevaron a vídeos sobre el veganismo. Los vídeos sobre jogging llevaron a vídeos sobre correr ultramaratones». Como resultado, la investigación sugiere que el algoritmo de YouTube ha estado ayudando a polarizar y radicalizar a la gente y a difundir información errónea, sólo para mantenernos mirando. «Si estuviera planificando las cosas, probablemente no habría hecho de ese el primer caso de prueba de cómo vamos a desplegar esta tecnología a escala masiva», dijo Dylan Hadfield-Menell, investigador de IA en la Universidad de California, Berkeley.

efectos negativos de la inteligencia artificial

Algunos relatos populares utilizan el término «inteligencia artificial» para describir las máquinas que imitan las funciones «cognitivas» que los humanos asocian con la mente humana, como el «aprendizaje» y la «resolución de problemas», sin embargo, esta definición es rechazada por los principales investigadores de la IA[b].
A medida que las máquinas son cada vez más capaces, las tareas que se consideran que requieren «inteligencia» se eliminan a menudo de la definición de IA, un fenómeno conocido como efecto IA[3]. Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA,[4] al haberse convertido en una tecnología rutinaria[5].
La inteligencia artificial se fundó como disciplina académica en 1956, y en los años posteriores ha experimentado varias oleadas de optimismo,[6][7] seguidas de decepción y pérdida de financiación (lo que se conoce como «invierno de la IA»),[8][9] seguidas de nuevos enfoques, éxito y financiación renovada.[7][10] La investigación en IA ha probado y descartado muchos enfoques diferentes desde su fundación, incluyendo la simulación del cerebro, la modelización de la resolución de problemas humanos, la lógica formal, las grandes bases de datos de conocimiento y la imitación del comportamiento animal. En las primeras décadas del siglo XXI, el aprendizaje automático estadístico altamente matemático ha dominado el campo, y esta técnica ha demostrado ser muy exitosa, ayudando a resolver muchos problemas desafiantes en la industria y el mundo académico[11][10].

superintell… caminos, peligros…

El aprendizaje automático (ML) y la inteligencia artificial (IA) se están convirtiendo en técnicas dominantes de resolución de problemas en muchos ámbitos de la investigación y la industria, sobre todo por los recientes éxitos del aprendizaje profundo (DL). Sin embargo, la ecuación IA=ML=DL, como se ha sugerido recientemente en las noticias, los blogs y los medios de comunicación, se queda demasiado corta. Estos campos comparten las mismas hipótesis fundamentales: la computación es una forma útil de modelar el comportamiento inteligente de las máquinas. ¿Qué tipo de computación y cómo programarla? Esta no es la pregunta correcta. La computación no excluye las técnicas de búsqueda, lógicas y probabilísticas, ni los métodos de aprendizaje (profundo) (in)supervisado y de refuerzo, entre otros, ya que los modelos computacionales los incluyen a todos. Se complementan entre sí, y el próximo avance radica no sólo en impulsar cada una de ellas, sino también en combinarlas.
El Big Data no es una moda. El mundo crece a un ritmo exponencial y también lo hace el tamaño de los datos recogidos en todo el planeta. Los datos son cada vez más significativos y relevantes desde el punto de vista contextual, abriendo nuevos caminos para el aprendizaje automático (ML), en particular para el aprendizaje profundo (DL) y la inteligencia artificial (AI), sacándolos de los laboratorios de investigación y llevándolos a la producción (Jordan y Mitchell, 2015). El problema ha pasado de la recopilación de cantidades masivas de datos a su comprensión, convirtiéndolos en conocimiento, conclusiones y acciones. Múltiples disciplinas de investigación, desde las ciencias cognitivas hasta la biología, las finanzas, la física y las ciencias sociales, así como muchas empresas, creen que las soluciones «inteligentes» y basadas en datos son necesarias para resolver muchos de sus problemas clave. Los experimentos genómicos y proteómicos de alto rendimiento pueden utilizarse para hacer posible la medicina personalizada. Los grandes conjuntos de datos de consultas de búsqueda pueden utilizarse para mejorar la recuperación de información. Los datos climáticos históricos pueden utilizarse para comprender el calentamiento global y predecir mejor el tiempo. Se pueden utilizar grandes cantidades de lecturas de sensores e imágenes hiperespectrales de plantas para identificar las condiciones de sequía y obtener información sobre cuándo y cómo el estrés afecta al crecimiento y desarrollo de las plantas y, a su vez, cómo contrarrestar el problema del hambre en el mundo. Los datos de los juegos pueden convertir los píxeles en acciones dentro de los videojuegos, mientras que los datos de observación pueden ayudar a que los robots comprendan entornos complejos y desestructurados y aprendan habilidades de manipulación.

retroalimentación

Las tecnologías cognitivas se utilizan cada vez más para resolver problemas empresariales; de hecho, muchos ejecutivos creen que la IA transformará sustancialmente sus empresas en tres años. Pero muchos de los proyectos de IA más ambiciosos sufren contratiempos o fracasan.
Una encuesta realizada a 250 ejecutivos familiarizados con el uso de la tecnología cognitiva en sus empresas y un estudio de 152 proyectos muestran que las empresas obtienen mejores resultados si adoptan un enfoque incremental en lugar de uno transformador para desarrollar e implementar la IA, y si se centran en aumentar las capacidades humanas en lugar de sustituirlas.
En términos generales, la IA puede satisfacer tres importantes necesidades empresariales: la automatización de los procesos de negocio (normalmente actividades administrativas y financieras), la obtención de información a través del análisis de datos y la interacción con clientes y empleados. Para sacar el máximo provecho de la IA, las empresas deben comprender qué tecnologías realizan qué tipo de tareas, crear una cartera de proyectos priorizados en función de las necesidades del negocio y desarrollar planes de ampliación en toda la empresa.

Usamos cookies para asegurar que le damos la mejor experiencia en nuestra web. Si continúa usando este sitio, asumiremos que está de acuerdo con ello. Nuestros socios (incluye a Google) podrán compartir, almacenar y gestionar sus datos para ofrecerle anuncios personalizados    Más información
Privacidad