LA BIG DATA: UN ANÁLISIS CONCEPTUAL

ZEBALLOS HURTADO, Jorge Enrique / MOLINA LUJÁN, Mariane

Autores/as

  • IGOB REVISTA

Resumen

Resumen: La presente tiene por finalidad divulgar que es la Big Data proponiendo una definición que más se ajuste con la realidad y con sus características que por la evolución de la tecnología cada día aumentan en número, también se explica de manera didáctica y sucinta los tipos de datos  que se trabaja en la Big data, que es el material que resulta procesado por los ciclos de Gestión de la Información, estos ciclos son necesarios para obtener el material con el que se analizara y manejara la información detentada.

 

Es necesario también conocer las Unidades de información con la que trabaja la Big Data, siendo la data manejada en cantidades inmensurables para el ser humano, por lo que es necesario la intervención de la tecnología mediante softwares y algoritmos. Dentro de los aspectos favorables de la Big data explicamos su gran aporte a diversas disciplinas del quehacer humano, como son en el campo de la salud, las finanzas, el turismo, los seguros, el deporte, etc. Pero igualmente hacemos hincapié en los aspectos desfavorables que son el mal uso que le estarían dando algunos Gobiernos y empresas para usos nada lícitos, violándose de esta manera principios y leyes constitucionales.

 

Finalmente, los riesgos del uso de la BIG Data en el futuro estarían en la falta de protección de los datos y la privacidad de las personas, como también en el uso de algoritmos que muchas veces estarían afectando a personas con alguna forma de discriminación basada en datos reemplazando de esta manera la atención personalizada y sin derecho a explicación por parte de las Empresas que usan este tipo de modalidad tecnológica.

Palabras claves: tecnología; datos; información; algoritmos; protección de datos;

 

Summary:  The purpose of this document is to disclose that it is the Big Data proposing a definition that best fits reality and its characteristics that, due to the evolution of technology, are increasing in number every day, the types of data are also explained in a didactic and succinct way that the Big data is worked on, which is the material that is processed by the Information Management cycles, these cycles are necessary to obtain the material with which the information held will be analyzed and handled.

 

It is also necessary to know the Information Units with which the Big Data works, being the data handled in immeasurable amounts for the human being, so that the intervention of the technology by means of softwares and algorithms is necessary.

 

Within the favorable aspects of Big data we explain its great contribution to various disciplines of human work, such as in the field of health, finance, tourism, insurance, sports, etc. But we also emphasize the unfavorable aspects that are the misuse that some governments and companies would be giving it for nothing legal uses, thus violating constitutional principles and laws.

 

Finally, the risks of using BIG Data in the future would be in the lack of data protection and the privacy of people, as well as in the use of algorithms that would often be affecting people with some form of data-based discrimination. replacing in this way the personalized attention and without the right to explanation by the Companies that use this type of technological modality.

Definición de Big Data.-  Existen diferentes definiciones de la Big data, pero la mayoría habla de “datos masivos”, “ingente cantidad de datos” y términos que al saber su dimensión resultaría inimaginable para la mente humana, como el caso de los “Exabytes” que representan un Billón de Gigabytes, cantidad que para nosotros seria imposible de procesar pero que en el mundo de las maquinas y la tecnología no es difícil de procesar, analizar y sacar provecho de toda esta información en diferentes áreas del quehacer humano, ya sea en el campo de la salud, finanzas, agro, seguridad, marketing, etc.

 

Nosotros nos quedamos con la definición que “Es un concepto evolutivo que describe la transformación de grandes conjuntos de datos (estructurados, semiestructurados y no estructurados) o la combinación de estos, que se generan de acuerdo con la dinámica de las sociedades y se traducen en diagnósticos, directrices o parámetros, para la correcta toma de decisiones en un tiempo y espacio determinado”.(1)

 

Tipos de datos del Big Data:

  1. Datos Estructurados. - los datos estructurados son aquella información que se encuentra en las de bases de datos. Y que son archivos de tipo texto que están organizados en filas y columnas con títulos. Estos datos pueden ser ordenados y procesados fácilmente por las herramientas de minería de datos. Es de imaginarse un espacio donde todo está debidamente organizado, así como identificado, etiquetado y de un acceso posible. Tenemos que estar conscientes que el dato en forma aislada no tiene valor, pero al ser tratado, procesado y analizado se convierte en una fuente de conocimiento, esta genera una fuente de competitividad y riqueza para quien la posee
  2. Datos no estructurados. - son aquellos que no tienen una estructura definida son datos en bruto y no organizados, y estos pueden provenir de fuentes como las redes sociales (Twitter,Facebook, Instagram,linkedin,etc),, información de audios y videos, imágenes digitalizadas, así como correos electrónicos.

 

Características de la Big Data:

El último artículo de La Revista BBVA de España en agosto de este año (2), ya no las define en cinco, sino que inclusive señala en 7 las características de la BIG DATA:

 

  1. Volumen

Los datos almacenados en los depósitos de las empresas han pasado de ocupar megabytes a gigabytes y luego a petabytes. Se estima que en 2020 se procesarán en el mundo 40 zettabytes de datos y se prevé que la cantidad de datos en el mundo se duplicará cada dos años. Un gran contribuyente del volumen de datos es el Internet de las Cosas (IoT por sus siglas en inglés), el cual obtiene una cantidad inmensa de información a través de sensores.

 

  1. Velocidad

La velocidad del movimiento, proceso y captura de datos dentro y fuera de la empresa ha aumentado significativamente. Los modelos basados en inteligencia de negocios generalmente suelen tardar días en procesarse, frente a las necesidades analíticas de hoy en día que requieren la captura y procesamiento de datos “casi” en tiempo real, gracias al flujo de datos a alta velocidad.

Final del formulario

La velocidad prácticamente a tiempo real es gracias a la ubicuidad y la disponibilidad de dispositivos conectados a internet, sean estos inalámbricos o no. Hoy por hoy, la velocidad de transmisión de la información es extraordinaria. Por ejemplo, se estima que se suben 500 horas de vídeo a YouTube por minuto y que en ese mismo tiempo se envían 200 millones de correos electrónicos.

  1. Variedad

La diversidad de datos ha explotado, pasando de ser datos almacenados y estructurados, guardados en bancos de datos empresariales, a ser desestructurados, semiestructurados y con distintos formatos (audios, vídeos, XMLs, etc.). A modo de ejemplo, más de 3,5 miles de millones de personas realizan llamadas, mandan mensajes de texto, tuitean y navegan por internet con teléfonos móviles.

 

  1. Veracidad

La búsqueda de la veracidad de los datos para la obtención de información confiable. A los datos veraces se les puede sacar un mayor provecho por el grado de calidad que presentan. Esto es relevante para organizaciones que centran su negocio en la información.

 

  1. Valor

Hace referencia a la rentabilidad resultante de la gestión de los datos. La clave del Big Data no es la cantidad ingente de información, sino el uso y/o manejo que se haga de ella. Aunque la implementación de infraestructuras informáticas para lidiar con los grandes volúmenes de datos es costosa, esta puede proporcionar a las empresas importantes ventajas competitivas.

 

  1. Dos “V”s adicionales.-

Además de las ‘V’ mencionadas anteriormente, hay expertos que proponen incluir también otros aspectos. Como Mark Van Rijmenam, uno de los 10 influencers globales relacionados con esta temática, que asegura que deben agregarse variabilidad y visualización de los datos a las 5 ‘V’ anteriores:

La variabilidad hace referencia a la variabilidad en el significado, en el léxico. Esto es relevante a la hora de llevar a cabo análisis de percepciones. Los algoritmos deben ser capaces de comprender el contexto y descifrar el significado exacto de cada palabra en su respectivo entorno.  Este análisis semántico resulta mucho más complejo.

La visualización es lograr que toda la cantidad de datos recolectados y analizados sean comprensibles y sencillos de leer. Sin una visualización adecuada, no se puede sacar el máximo rendimiento y aprovechamiento de los datos en bruto.

 

Ciclo de gestión de la información:

  1. Captura de la información. -

Existe información en todas partes, y sobre todo sabemos que aquella viene en grandes cantidades, por ello valiéndonos de softwares especializados podremos extraer información de diferentes fuentes, tal como lo explicamos en las clases de Fuentes:

  1. Almacenamiento de la información. -

Una vez capturada la información es necesario guardarla, dependiendo de su importancia y el uso que le demos en el futuro, por ello existen aplicaciones que colaboran con esta necesidad como Hadoop.

  1. Tratamiento de la información. -

Capturados y almacenados los datos, el siguiente paso dependiendo de su uso en el futuro y del tipo de información para que mediante tratamientos sencillos a sistemas predictivos se pueda buscar patrones repetitivos a través de la estadística y del machine learning (estas son técnicas mediante la cual las maquinas generalizan información en base a ejemplos que se les proporciona para tal efecto)

  1. Puesta en valor de la información. -

Los datos sin estos procesos descritos anteriormente, no garantizan conocimiento, si el análisis y el tratamiento adecuado, el valor no está en los propios datos sino en la relación entre sí de los mismos

Estas relaciones permiten establecer patrones que de alguna manera construyen el conocimiento que será usado en diferentes y múltiples ámbitos, como la visualización de gráficos para análisis predictivos, los hábitos de consumo de determinado cliente, etc.

 

Unidades de medida de la información:

 

Nombre........... Medida Binaria................... Cantidad de bytes........... Equivalente

Kilobyte (KB)......2^10................................................. 1024......................1024 bytes
Megabyte (MB).. 2^20.............................................1048576..................... 1024 KB
Gigabyte (GB).... 2^30...................................... 1073741824.....................1024 MB
Terabyte (TB)..... 2^40.................................1099511627776.................... 1024 GB
Petabyte (PB)...... 2^50.......................... 1125899906842624.................... 1024 TB
Exabyte (EB)...... 2^60..................... 1152921504606846976.................... 1024 PB
Zettabyte (ZB).... 2^70............... 1180591620717411303424.................... 1024 EB
Yottabyte (YB)... 2^80......... 1208925819614629174706176.................... 1024 ZB

 

En informática, cada letra, número o signo de puntuación ocupa un byte (8 bits). Por ejemplo, cuando se dice que un archivo de texto ocupa 5.000 bytes estamos afirmando que éste equivale a 5.000 letras o caracteres. Ya que el byte es una unidad de información muy pequeña, se suelen utilizar sus múltiplos: kilobyte (kB), megabyte (MB), gigabyte (GB).

 

Bit: es una unidad de medida de almacenamiento de información; es la mínima unidad de memoria obtenida del sistema binario y representada por 0 ó 1. Posee capacidad para almacenar sólo dos estados diferentes, encendido (1) ó apagado (0).

Las computadoras, trabajan con el sistema de numeración binario, basado en sólo esos dos valores (0 y 1). El motivo de esto es que las computadoras son un conjunto de circuitos electrónicos y en los circuitos electrónicos existen dos valores posibles: que pase corriente (identificado con el valor 1) o que no pase corriente (identificado con el valor 0). Cada dígito binario recibe el nombre de bit (Binary digiT).

Para disponer de los numerosos caracteres que se necesitan en el lenguaje escrito (letras, números, símbolos, etc.) se requiere que los bits se unan para formar agrupaciones más grandes, cuyas combinaciones permitan identificar distintos caracteres. Esta agrupación de bits, se denomina byte.

Byte: También es una unidad de medida de almacenamiento de información. Pero esta unidad de memoria equivalente a 8 bits consecutivos. Al definir el byte como la combinación de 8 bits, se pueden lograr 256 combinaciones (2^8). Estas son más que suficientes para todo el alfabeto, los signos de puntuación, los números y muchos otros caracteres especiales. Cada carácter (letra, número o símbolo) que se introduce en una computadora se convierte en un byte siguiendo las equivalencias de un código, generalmente el código ASCII.

Kilobyte (KBytes): [Abrev. KB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 bytes.

Megabyte (MBytes): [Abrev. MB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Kilobytes. Es la unidad mas típica actualmente, usándose para verificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. Parece que todavía le queda bastante tiempo de vida aunque para referirse a la capacidad de los discos duros ya ha quedado obsoleta, siendo lo habitual hablar de Gigabytes.
Gigabyte (GBytes): [Abrev. GB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Megabytes.

Terabyte (TByte): [Abrev. TB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Gigabytes. Es una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que coincide con algo mas de un trillón de bytes.

Petabyte (PByte): [Abrev. PB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Terabytes.

Exabyte (EByte): [Abrev. EB ] Unidad de medida de almacenamiento de información. Unidad de memoria  equivalente a 1024 Petabytes.

Zetabyte (ZByte): [Abrev. ZB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Exabytes.

Yottabyte (YByte): [Abrev. YB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Zetabytes.

 

Aspectos favorables y desfavorables de la Big Data.-

 

  1. Aspectos favorables.-

Tenemos que gracias a la Big Data se tiene el avance en muchos aspectos de la vida diaria entre ellos debemos resaltar :

Salud y sanidad

En este sector  los beneficios de la Big data es la optimización de tratamientos médicos y las pruebas médicas que se hacen a los pacientes. Un ejemplo es el estudio que hizo Healthcare Alliance que constata cómo con el análisis de datos masivos mejoraron los resultados de los pacientes y se redujo el gasto en asistencia sanitaria.

Otras aplicaciones que se dan en el sector farmacéutico, con la gestión de epidemias o pandemias, o en la creación de un sistema de vigilancia de la salud en todo un país.

 

Turismo

Es en este sector donde la gestión de los datos masivos apoya a los diferentes actores involucrados en el ámbito a diseñar acciones y planes estratégicos apoyados en la tecnología. Por lo que las Empresas Turisticas haciendo uso de la Big Data pueden analizar las huellas digitales que dejan los turistas desde diferentes dispositivos, como tarjetas de créditos o telefonía móvil, creándose un volumen masivo de datos que, combinado con sistemas de información geográfica, permiten conocer, el número real de visitantes, datos que permiten obtener los perfiles de los turistas que visitan una localidad, sus preferencias, procedencia, necesidades, etc. Estos datos extraen información, con la que las diferentes Empresas y Actores vinculados con el turismo pueden diseñar productos y servicios adaptados a estos perfiles. Por ejemplo las compañías áreas, que pueden fluctuar sus precios de vuelos según destino y franja horaria, los hoteles, que pueden definir sus estrategias de reserva, y los restaurantes, que pueden redactar sus menús y platos recomendados.

 

Sector financiero

Este sector tiene un gran volumen de datos procedentes de canales diversos, y con formatos estructurados y no estructurados, que es preciso sean integrados, para explotar su potencial y hacer frente a las incertidumbres del entorno. La Big data ayuda a segmentar los clientes para diseñar campañas de marketing, o diseñar acciones de fidelización o seguimiento de la competencia, para diferenciarse de esta y obtener más clientes.

Ejemplos de otras aplicaciones de los datos masivos son: la gestión de los riesgos implícitos en la concesión de créditos, la gestión de los fraudes en los medios de pago o blanqueo de capitales, financiación del terrorismo, etc. o la detección de señales del entorno para prever riesgos y turbulencias en ese entorno, entre otros.

 

Bibliotecas

Este ámbito explota datos cuantitativos generados en su gestión diaria, como por ejemplo el número de usuarios o los títulos más solicitados. Aplicando técnicas como la minería de datos, minería de texto o minería web. Por ejemplo, se podrían obtener las temáticas de más interés entre los usuarios para gestionar las colecciones, las épocas del año con más consultas o los perfiles demográficos de los usuarios por zonas geográficas, entre otros ejemplos. En el caso de las bibliotecas universitarias, se pueden hacer mapas de conocimiento, con técnicas bibliométricas, a partir de los artículos publicados por los investigadores de la universidad.

 

Seguros

La gestión de datos masivos ayuda a las compañías aseguradoras a detectar y prevenir el fraude en las reclamaciones. El análisis predictivo y la segmentación de riesgos ayudan a identificar patrones para detectar el fraude.

Un ejemplo es la experiencia de la empresa Santam, que desarrolló una solución de análisis avanzado que procesa datos procedentes de las reclamaciones presentadas, valora cada reclamación confrontándola con factores de riesgos identificados y divide las reclamaciones en cinco categorías de riesgo, separando las reclamaciones que parecen fraudulentas y de riesgo más alto de los casos de bajo riesgo. De este modo, además de ahorrar dinero con el fraude, reduce el tiempo de procesamiento de las reclamaciones de bajo riesgo.

 

Administración pública

El sector público genera grandes cantidades de datos. Por lo que también puede explotar datos tanto para su gestión interna, mejorando la productividad y eficacia para optimizar el dinero de los contribuyentes, como en la gestión del territorio, generando ventaja competitiva con relación a otros territorios. Un ejemplo claro del uso de los datos es la explotación de los metadatos existentes en los sistemas informáticos referentes a demografía, infraestructuras del territorio o recursos naturales, entre otros. La gestión de estos datos orientados a generar valor en el territorio se puede hacer siguiendo la metodología señalada por la inteligencia territorial.

 

  1. Aspectos desfavorables. -

Los primeros perjudicados con el mal uso efectuado al Big Data, somos no­sotros, los usuarios. La privacidad en Internet no existe. Debemos recordar El famoso caso Snowden. En junio de 2013 Edward Snowden de apenas 29 años provo­có la mayor filtración de la historia de los Estados Unidos. Hizo públicos casi dos millones de documentos secretos de la Agencia de Seguridad Nacional (NSA, la poderosa rama militar del Pentágono que emplea a cien mil personas). las filtraciones incluían documentos de PRISM, el programa de vigilan­cia electrónica masiva que diseñó por la NSA. Los detalles son impresionantes y el abuso de la NSA y del gobierno norteamericano fue tan indignante como meticuloso. Lo cierto es que, aunque lo nieguen y de alguna u otra manera (obligados o no), tanto Microsoft y Yahoo! como Google, Apple y Facebook, entre otras empresas, colaboraron con la NSA permitiéndole el ingreso a sus servidores. Así, el go­bierno de Obama tuvo acceso directo e irrestricto a todos nuestros correos electrónicos, fotos, chats, videos, historial de navegación en la web, transferencias de archivos, ma­pas y una larga lista que incluye, por supuesto, todo lo que hacemos en Facebook: desde un like en una foto hasta un mensaje privado. Todos Los documentos filtrados también involucraron a la em­presa norteamericana de telecomunicaciones Verizon, que fue obligada a darle a la NSA todos los registros de las llamadas te­lefónicas (fijas y celulares) que realizaron sus clientes. “En sólo treinta días la unidad de operaciones recogió datos de 97 mil millones de e-mails y 124 mil millones de llamadas telefónicas de todo el mundo”,

 

El caso Snowden dejó en evidencia el beneficio que go­biernos y empresas pueden obtener con la explotación de la información que, en apariencia, nos pertenece y es privada.

Por último, otro caso que ha dejado en evidencia la información que poseen estas grandes corporaciones En marzo de 2018 unos videos salieron a la luz pública en torno al caso de Cambridge Analytica y su relación con Facebook, asi como la capacidad de ambas empresas de influir en las contiendas electorales de Occidente. La firma Cambridge Analytica había sido contratada por la campaña de Trump 2016, y se supone que habría tenido también que ver con la victoria del brexit en el referéndum conducido ese mismo año. Ello habría sido posible porque la compañía tuvo acceso no autorizado a decenas de millones de perfiles de Facebook en una gran filtración de datos.

 

La Big Data, también ha alcanzado usos nada claros, poco transparentes, manipuladores; existen evidentes casos de abuso masivo de la intimidad, de información falsa que se viraliza (fakenews), frente a los cuales la población queda desprotegida. Pero el principal problema de fondo es que el desarrollo tecnológico permite a las grandes corporaciones privadas extender sus dominios hacia áreas que anteriormente eran públicas o de bienes comunes, y es el caso de las megacorporaciones digitales como IBM,GOOGLE,AMAZON, etc, que están desencadenando un proceso de monopolización de escala inédita.

 

Existe actualmente una carrera para digitalizar cada vez más áreas de la economía y la sociedad, introducir la internet de los objetos (IO), la conectividad 5G (base tecnológica para la IO) y afinar la inteligencia artificial que abarca cada vez más áreas. Está previsto quien domine la economía digital dominará en gran parte la economía. Lo realmente peligroso es que sin adecuadas medidas de regulación y control de estas corporaciones, se crearan sociedades bajo constante vigilancia en todos los ámbitos, públicos y privados, rodeada por un sinfín de cámaras, micrófonos, sensores, antenas y demás dispositivos inteligentes, intercomunicados entre sí y con los dueños de la tecnología, mediante algoritmos a la medida.

 

Los riesgos de la Big Data para la humanidad. -

 

  1. El riesgo para la privacidad, intimidad y protección de datos:

Es necesario que comprendamos que la normativa de protección de datos se aplica cuando la información de las personas físicas hace que estas puedan ser identificadas o identificables. Sensu contrario, cuando los datos no hacen identificable a una persona, no se aplica esta regulación. Es decir, cuando los datos se hacen anónimos a través de técnicas de anonimización, se convierten en datos no personales, y la privacidad de los individuos queda protegida, de modo que no es necesario aplicar ninguna norma sobre protección de datos.

Junto con la anonimización, las normas de protección también tratan lo que denomina el proceso de disociación, que permite crear datos pseudónimos, una categoría de datos que, sin ser anónimos, tienen más garantías para la privacidad que los datos puramente personales.

 

El peligro es que mediante la aplicación de técnicas de Big Data es posible, a partir de datos que no permiten la identificación de los titulares (considerados, por tanto, datos anónimos), lograr la identificación de un usuario. Por lo que con el arribo de la Big Data las políticas de protección de datos están siendo revisadas en estos momentos tratando de adaptarse a la nueva realidad y sobre todo se debe poner énfasis en los siguientes puntos que serían la base para poder ejercer una protección de datos e intimidad de las personas:

 

  1. El deber de información. -

Por el principio de información se debe considerar que dicha información debe ser previa a la obtención del consentimiento prestado por parte del titular de los datos. Lo que implicaría que toda la información necesaria debe suministrarse en el momento en que se solicita el consentimiento, de forma clara y comprensible, y esta debe comprender todas las cuestiones pertinentes. pero informar al interesado el riesgo de que sus datos se transfieran a otro País donde no hubiera Leyes de protección de Datos, también debería ser informado sobre el tratamiento de sus datos, es decir si va a ser usada para Big Data u otros tratamientos de la Información, teniendo siempre el derecho a la rectificación, cancelación y oposición.

 

  1. Obtención del consentimiento

Para que el consentimiento sea válido, es necesario que el titular de los datos personales tenga capacidad de elegir una opción real, sin que exista riesgo de engaño o de que el consentimiento se encuentre viciado.

El consentimiento debe ser específico, sobre todo en los tipos de tratamiento, así como sobre los efectos que se van a producir, incluidas, si es el caso, la tipología de datos que podrían derivarse de este tipo de tratamiento.

 

  1. La discriminación predictiva.-

También existe un riesgo potencial en el Uso de la Big Data y es el del análisis predictivo que puede ser utilizado para tomar decisiones de manera algorítmica, sin la intervención humana afectando muchas veces de manera negativa a determinada persona (que podría ser en el acceso a un puesto laboral, la obtención de un préstamo o de una tarjeta de crédito.

 

Hay que ser claros en que el riesgo no está en los datos en si, sino en la interpretación y/o asociación que pueden llegar a hacer las empresas, basadas en la toma de decisiones automática o basada en criterios poco lícitos de un algoritmo, deshumanizando y despersonalizando cualquier criterio, por lo que las empresas tendrán que llevar a cabo un esfuerzo para  equilibrar el análisis predictivo con la atención personalizada.

 

Diríamos que existe una creciente preocupación por la forma en que el tratamiento de datos y la toma de decisiones por parte de un algoritmo en sustitución del humano, afecte de manera concluyente con una discriminación que vulnere derechos fundamentales, por lo que se hace necesario tomar medidas de mayor vigilancia y fiscalización por parte del colectivo civil,  Además, para evitar estas posibles discriminaciones debe existir un derecho a una explicación. Es decir, partiendo de que es posible que la tecnología acceda a informaciones sensibles y tome decisiones automáticas a partir de éstas, la persona empleada debe conocer cómo y por qué se ha tomado la decisión para poder oponerse o alegar lo que considere oportuno.

 

CONCLUSIONES:

  • La información en la BIG DATA es inmensurable y cada vez se crean nuevas unidades de medición.
  • La BIG DATA solo es posible procesarla mediante avanzados softwares y algoritmos.
  • Los Beneficios de la BIG DATA se esta dando en todos los campos de la humanidad, salud, tecnología, Finanzas, Economía, Deportes, Turismo, etc.
  • Los principales riesgos de la Big Data, es el relacionado con la privacidad, intimidad y protección de datos de las personas y el de la Discriminación Predictiva.

 

RECOMENDACIONES:

  • Desde nuestro punto de vista recomendaríamos un mayor control en las Leyes de Protección de datos, para que las personas no vean violada su intimidad y sus derechos fundamentales.
  • Asimismo, dado que ha habido muchos problemas con la Discriminación predictiva, se hace necesario que esto sea controlado por la Sociedad Civil, mediante un mayor control y la exigencia a las empresas que emplean este tipo de predictibilidad el “derecho a la explicación”, no es posible que dejemos nuestras decisiones a las maquinas, deshumanizándonos totalmente.

 

REFERENCIAS:

 

Descargas

Los datos de descargas todavía no están disponibles.

Archivos adicionales

Publicado

2019-09-27

Cómo citar

REVISTA, I. (2019). LA BIG DATA: UN ANÁLISIS CONCEPTUAL: ZEBALLOS HURTADO, Jorge Enrique / MOLINA LUJÁN, Mariane. IGOBERNANZA, 2(6), 49–63. Recuperado a partir de https://igobernanza.org/index.php/IGOB/article/view/51

Artículos más leídos del mismo autor/a

1 2 > >>