Big data traduccion

Big data traduccion

Trasladar los grandes datos a la visualización de rv

Los consumidores online de todo el mundo tienen un poder adquisitivo estimado de 50 billones de dólares, según Common Sense Advisory. Sin embargo, los angloparlantes representan aproximadamente un tercio de los usuarios de Internet. Para llegar al 98% de los consumidores en línea, una empresa debe ir más allá del idioma inglés y traducir el contenido a 48 idiomas.

El Big Data agrava el reto al inundar a las empresas con contenidos de todo el mundo. El volumen de datos globales de las empresas en línea se duplica cada 1,2 años, según una estimación académica de la Escuela de Negocios W.P. Carey. IDC prevé que en 2020 se realicen 450.000 millones de transacciones comerciales al día. Según una estimación de IBM, en la actualidad ya existen unos 2,7 zetabytes de datos en línea.

No es de extrañar que las empresas estadounidenses que desean globalizarse se enfrenten a importantes obstáculos cuando se trata de traducir. No sólo tienen que traducir contenidos a docenas de idiomas, sino que tienen que gestionar y priorizar su avalancha de información global. Solo cuando las empresas combinan aplicaciones de traducción y Big Data basadas en la nube con usuarios humanos inteligentes pueden empezar a aprovechar esta diversidad de datos en su beneficio.

Traductor de análisis @ dataroots

Todos somos conscientes del hecho de que con cada momento que pasa, la cantidad de datos accesibles en nuestros mundos aumenta continuamente. Aunque cuantificarlo con exactitud no es una hazaña, un estudio académico realizado por la W.P. Carey School of Business ha establecido que todos los datos humanos conocidos se duplican aproximadamente cada 1,2 años. El término «datos» puede referirse aquí a hechos o cifras procedentes de fuentes tanto tradicionales como digitales: puede tratarse de interacciones en línea en plataformas de medios sociales, o incluso de información sobre transacciones de productos en una tienda minorista.

Se calcula que para el año 2020 habrá probablemente cuatro veces más datos digitales que todos los granos de arena de la tierra. Y cuando hablamos de todos estos datos estructurados, no estructurados o incluso semiestructurados que pueden obtenerse de todas las fuentes disponibles (tanto tradicionales como digitales) juntas en su totalidad, lo que surge es lo que se conoce como «Big Data»: una cantidad grande, compleja y voluminosa de datos, tanto en bruto como de otro tipo, que tiene el potencial de ser extraído y, eventualmente, proporcionar conocimientos sin precedentes.

Big data de la traducción: qué puede decirnos sobre la industria

Los informáticos utilizan el término big data para describir los conjuntos de datos extremadamente grandes de los que se está disponiendo en una gran variedad de disciplinas, como la genómica, las redes sociales, la astronomía, los textos y documentos de Internet y la ciencia atmosférica, por nombrar sólo algunas. Los big data suelen caracterizarse por su gran volumen (conjuntos de datos muy grandes), su alta velocidad (los datos cambian rápidamente) y/o su gran variedad (gran variedad de tipos y fuentes de datos).

Las técnicas de aprendizaje automático estadístico hacen referencia a los métodos o técnicas que aplican modelos estadísticos a grandes cantidades de datos con el fin de que las máquinas puedan inferir automáticamente relaciones a partir de los patrones que se pueden encontrar en los datos. Existen varios modelos de inferencia estadística utilizados en el aprendizaje automático, pero uno de los más populares es el llamado inferencia bayesiana.

Tenga en cuenta que, aunque las técnicas de aprendizaje automático estadístico difieren de las redes neuronales mencionadas anteriormente, ambas son subdisciplinas del aprendizaje automático: las dos se entrenan con grandes conjuntos de datos y aprenden a reconocer patrones presentes en los datos. La principal diferencia entre ambas es que las redes neuronales se inspiran en los sistemas neuronales biológicos y en los ciclos de retroalimentación que parecen ser inherentes a esos sistemas, mientras que las técnicas de aprendizaje automático estadístico han surgido de las matemáticas y la estadística y no de la biología. Las redes neuronales fueron en su día el modelo de aprendizaje automático más popular, pero desde el cambio de siglo los métodos estadísticos se han impuesto.

Soluciones de mt para análisis de grandes datos e inteligencia sdl

Probablemente sepa que los datos lingüísticos incluyen el habla, el texto, los léxicos y las gramáticas. Para tener alguna posibilidad de profundidad significativa en un artículo corto, vamos a centrarnos en los datos de traducción textual almacenados en la memoria de traducción (MT).

Mientras escribo, estamos terminando un importante informe sobre el panorama de la tecnología de la traducción. El informe es un análisis exhaustivo del pasado, el presente y las expectativas de futuro del segmento, algo inédito, en el que solo participan proveedores de tecnología. En junio de 2012, 20 de ellos se reunieron en París para debatir objetivos comunes en términos de visibilidad, colaboración e interoperabilidad, y de ahí nació el informe. Todos los asistentes a la reunión coincidieron en que había motivos para la cooperación, y el informe es un recurso abierto para ayudar a promover la visibilidad. Sin embargo, no se incluyó en el orden del día la necesidad de compartir los datos de traducción a gran escala. Debería haberlo sido. En nuestra opinión, es difícil exagerar la importancia de los datos lingüísticos y de traducción para el sector mundial de la tecnología y los servicios de traducción.

Usamos cookies para asegurar que le damos la mejor experiencia en nuestra web. Si continúa usando este sitio, asumiremos que está de acuerdo con ello. Nuestros socios (incluye a Google) podrán compartir, almacenar y gestionar sus datos para ofrecerle anuncios personalizados    Más información
Privacidad