Big data en educacion

Big data en educacion

Big data en educacion

Documentos de investigación sobre big data en la educación

El propósito de este documento de posición es presentar el estado actual, las oportunidades y los desafíos de los big data y la IA en la educación. El trabajo se ha originado a partir de las opiniones y las actas de los paneles de discusión de una conferencia internacional sobre big data e IA en la educación (The International Learning Sciences Forum, 2019), donde destacados investigadores y expertos de diferentes disciplinas como la educación, la psicología, la ciencia de los datos, la IA y la neurociencia cognitiva, etc., intercambiaron sus conocimientos e ideas. Este artículo está organizado de la siguiente manera: comenzamos con una visión general del progreso reciente de los big data y la IA en la educación. A continuación, presentamos los principales retos y las tendencias emergentes. Por último, basándonos en nuestras discusiones sobre los grandes datos y la IA en la educación, se sugieren las conclusiones y el alcance futuro.

Como subconjunto de la IA, el aprendizaje automático se centra en la construcción de sistemas informáticos que pueden aprender de los datos y adaptarse a ellos automáticamente sin necesidad de programación explícita (Jordan y Mitchell, 2015). Los algoritmos de aprendizaje automático pueden proporcionar nuevos conocimientos, predicciones y soluciones para personalizar las necesidades y circunstancias de cada individuo. Con la disponibilidad de una gran cantidad de datos de entrenamiento de entrada de alta calidad, los procesos de aprendizaje automático pueden lograr resultados precisos y facilitar la toma de decisiones informadas (Manyika et al., 2011; Gobert et al., 2012, 2013; Gobert y Sao Pedro, 2017). Estos métodos de aprendizaje automático con gran cantidad de datos se sitúan en la intersección de los big data y la IA, y son capaces de mejorar los servicios y la productividad de la educación, así como de muchos otros campos, como el comercio, la ciencia y la administración.

Desventajas del big data en la educación

Fig. 1Proceso de selecciónImagen a tamaño completoTabla 2Resultados del proceso de selecciónTabla a tamaño completoEvaluación de la calidadSegún (Kitchenham & Charters, 2007), la evaluación de la calidad desempeña un papel importante para comprobar la calidad de las investigaciones primarias. Las sutilezas de la evaluación dependen totalmente de la calidad de los instrumentos. Este mecanismo de evaluación puede basarse en la lista de comprobación de componentes o en un conjunto de preguntas. El objetivo principal de la lista de comprobación de componentes y de un conjunto de preguntas es analizar la calidad de cada estudio. No obstante, para este estudio se crearon cuatro estándares de medición de la calidad para evaluar la calidad de cada investigación. Los estándares de medición se dan como:

Los cuatro estándares de evaluación de la calidad se aplicaron a 65 estudios seleccionados para determinar la integridad de cada investigación. Los estándares de medición se clasificaron en bajo, medio y alto. La calidad de cada estudio depende del número total de puntuación. Cada evaluación de la calidad tiene una puntuación de dos puntos. Si el estudio cumple el estándar completo, se le otorga una puntuación de 2. En caso de cumplimiento parcial, se adquiere una puntuación de 1. Si no se cumple ninguna de las normas de evaluación, se otorga una puntuación de 0. En la puntuación total, si el estudio se sitúa por debajo de 4, se contabiliza como «bajo» y un 4 exacto se considera «medio». Sin embargo, lo que supera el 4 se refleja como «alto». Los detalles de los estudios se presentan en la Tabla 11 del Apéndice B. Los 25 estudios se excluyeron por no cumplir el estándar de evaluación de la calidad. Por lo tanto, sobre la base de la norma de evaluación de la calidad, se incluyó un total de 40 estudios primarios en esta revisión bibliográfica sistémica (Tabla 10 en el Apéndice A). Las puntuaciones de los estudios (en términos de baja, media y alta) se presentan en la Fig. 2.

Knewton

El big data tiene el poder de transformar la educación y la investigación educativa. Los gobiernos, los investigadores y las empresas comerciales sólo están empezando a comprender el potencial que ofrecen los big data para fundamentar las ideas políticas, contribuir al desarrollo de nuevas herramientas educativas y a las formas innovadoras de llevar a cabo la investigación.

Esta visión general de vanguardia explora el estado actual de la cuestión, analizando los grandes datos y el tema relacionado del código informático para examinar las implicaciones para la educación y la escolarización de hoy y del futuro próximo.

Cada año que pasa, vemos más proclamas sobre el potencial de la tecnología para perturbar la educación. En este libro enormemente informativo y perspicaz, Ben Williamson guía al lector a través de este panorama en rápida evolución.

SAGE Knowledge es la biblioteca digital de ciencias sociales por excelencia para estudiantes, investigadores y profesores. Con más de 4.400 títulos, incluye una amplia gama de contenidos de SAGE eBook y eReference, incluyendo monografías académicas, obras de referencia, manuales, series, títulos de desarrollo profesional y mucho más.

Desafíos del big data en la educación

El big data es un campo en el que los científicos e ingenieros de datos analizan, estructuran, utilizan y aprenden datos masivos a los que el software tradicional no puede hacer frente. Extraer la información necesaria de grandes conjuntos de datos ayuda a las industrias a predecir tendencias, aprender el comportamiento de las personas, tomar mejores decisiones empresariales y crear nuevas soluciones para satisfacer las demandas del mundo moderno.Los orígenes del término «big data» dejan espacio para las dudas y la investigación. Se considera que el padre del término «big data» es John Mashey, un informático de Pensilvania, que a mediados de la década de los noventa hablaba de él en Silicon Graphics, una empresa estadounidense que producía hardware y software hasta 2009.

Hoy en día cualquier tipo de información puede guardarse en almacenes en la nube y la cantidad de información digital crece a una velocidad increíble. Se estima que para el año 2025 habrá 163 zettabytes de datos. Un zettabyte equivale a 1.000 millones de terabytes o 1 billón de gigabytes.

El análisis de big data requiere métodos y software especialmente diseñados para examinar los datos en constante crecimiento. Para analizarlos, los científicos de datos tienen en cuenta sus 3 propiedades básicas: Volumen – se refiere a la cantidad de datos; Velocidad – la velocidad a la que se mueven y procesan los datos; Variedad – se refiere a los tipos y atributos de los datos.

Acerca del autor

admin

Ver todos los artículos