
CTecno (Cercle Tecnològic de Catalunya) y ABE (Asociación para la Búsqueda de la Excelencia),
abren el debate en Barcelona sobre el Big Data
“Aún no hemos entrado en el Big Data, estamos aún en el Small Data”
“Por el volumen de información que nos llegará vemos que estamos delante de un Tsunami y los que lo sepan administrar serán los ganadores”
- “Cada vez será más importante el derecho de acceso o el poder pedir en cualquier momento al operador que está recogiendo nuestra información quién es y qué tiene intención de hacer con nuestros datos”
- “A WATSON, el ordenador que analiza el lenguaje natural y lo entiende, lo han llevado a su Universidad para que aprenda sobre el cáncer de pulmón y el de mama y cree prácticas nuevas de medicina”
Más información: Emilia Giró – Comunicación ABE/ABE-L
Tel 658 80 61 45 – emilia.giro@gemege.com
e.giro@abexcelencia.org
Barcelona, 13 de mayo de 2016
“Aún no hemos entrado en el Big Data, estamos aún en el Small Data“, esta es la afirmación que pronunció Vicenç Aguilera, (Presidente del CIAC- Clúster Industria d’Automoció de Catalunya y del Circuit de Barcelona – Catalunya), en el debate “Big Data: Uso y Abuso”, organizado el pasado 11 de mayo en el Palau Macaya, por CTecno, (Cercle Tecnològic de Catalunya) y ABE, (Asociación para la Búsqueda de la Excelencia).
Acompañaban a Vicenç Aguilera en el panel de ponentes Alberto Agustinoy Guilayn, (Socio-Partner de Cuatrecasas, Gonçalves Pereira) y Manel del Castillo Rey, (Director General del Hospital Sant Joan de Deu), corriendo la moderación a cargo de Jordi William Carnes, (Presidente de CTecno y Director General de Turismo de Barcelona).
A partir de la bienvenida de Santiago Tarín Puig, creador e impulsor de ABE, que informó de que existían catorce grupos de ABE que se estaban reuniendo para buscar la unión de la buena gestión con valores para alcanzar la excelencia, Jordi William Carnes presentó a cada ponente especificando el área que desarrollaría cada uno.
Cuando se deja de ser un punto en un mapa
Tomó la palabra en primer lugar Alberto Agustinoy con la idea de enmarcar legalmente “de qué estamos hablando y especificar qué estamos regulando exactamente cuándo nos referimos al Big Data, pues a día de hoy es mucho más sencillo informatizar la información de una persona, entidad o grupo que hace unos años y de lo que estamos hablando es del proceso de recogida y tratamiento de estos datos”
A continuación el ponente presentó un ejemplo de donde está el punto de inflexión de los problemas legales en la recogida de datos, por medio de la proyección de un mapa digital de Barcelona en el que se visionaba por puntos los móviles conectados a Twitter en un momento concreto en la ciudad y donde se apreciaba las zonas de mayor conectividad destacando lo importante que podía ser esta información para un operador o para una empresa para las decisiones de redes o las de marketing.
De forma ingeniosa el ponente contrapuso a este mapa al del cuento infantil ¿Dónde está Wally?, para mostrar que cuando las personas son descubiertas y se hacen totalmente identificables dejando de ser un punto en un mapa es cuando surgen los problemas legales, pues ya se está exponiendo a un tratamiento de datos de carácter personal donde se ha de cumplir una normativa de protección de datos y donde es preciso tener su autorización
Según Agustinoy como la conectividad será total y en todos los temas continuará omnipresente la protección de datos que se ha de actualizar porque proviene de un régimen del año 1995, destacando que el camino de “cómo tratar los datos en un entorno Big Data” está ya iniciado con la reforma comunitaria aprobada el pasado mes de abril: “La reforma pretende devolver a los ciudadanos el control de sus datos personales y garantizar en toda la UE unos estándares de protección elevados y adaptados al entorno digital. También incluye nuevas normas mínimas sobre el uso de datos para fines judiciales y policiales”
Agustinoy destacó al final de su ponencia un tema del cual parece que cada vez oiremos hablar más: “Cada vez será más importante el derecho de acceso o el poder pedir en cualquier momento al operador que está recogiendo nuestra información quién es y que tiene intención de hacer con nuestros datos”. Puso de ejemplo al abogado austriaco de 27 años Max Schrems que se querelló y ganó contra Facebook al descubrir que existían más de 450 campos de datos de su persona y que estas podían traspasar el Atlántico vulnerando las reglas europeas de protección de datos.
Antes de dar paso al siguiente ponente el moderador Jordi William Carnes planteó “una hipótesis de reflexión” sobre un debate que planea y que está pendiente sobre clientes y ciudadanos, que para él son muy diferentes pues uno obtiene beneficios y el otro no
WATSON está en la Universidad
Manel del Castillo Rey, director del Hospital Sant Juan de Deu, definió el Big Data “como una colección de datos que no se pueden procesar en aplicaciones normales” destacando las tres “V” que de forma habitual lo conforman: volumen, variedad y velocidad, junto con la última “V” incorporada, definida “como aporte de valor” porque, según el ponente, sin él no tenemos en el fondo nada.
Y continuó “en el sector salud aunque es muy importante el volumen de datos, pues en el 2013 ya estábamos hablando de grandes bases de datos, nos preocupa la variedad de las fuentes que crecen a gran velocidad, están muy dispersas y se han de analizar de forma muy rápida. Esto si no lo tienes on-line no es útil”. Y puntualizó: “Este es uno de los grandes retos del sector de la salud para el que se han de buscar fórmulas”
Para Manel del Castillo otro de los grandes retos de la sanidad son los costes ya que “el sector de la salud ha pasado en España del 1,5 % del PIB al 9% y cada vez la sanidad se come un trozo del pastel más grande” donde “la cronicidad es el factor que más influye en el crecimiento del gasto pues el 5% de la población con enfermedades crónicas consume el 40% de los recursos”.
Para Del Castillo todo esto nos da pistas de cómo nos puede servir el Big Data dentro del sector de la salud
Otro reto importante para él es la complejidad actual de la medicina que antes era sencilla y ahora aunque es mucho más efectiva pero se ha convertido en “una práctica de riesgo” ya que por ejemplo una persona ingresada en la UCI contacta con una media de 133 personas, además de máquinas y drogas, etc. y se considera que un paciente ingresado en la UCI puede experimentar de media 1,7 errores diarios, un tercio de los cuales pueden ser fatales. Estos datos aparecen en el informe “To Err is Humam” publicado, con gran controversia en el año 1999 por “El Institute of Medicine” de los Estados Unidos.
Un paciente experimentado que está cambiando y el crecimiento imparable del conocimiento sobre medicina que continúa creciendo y parece inabarcable para la profesión médica son para el ponente otros retos importantes.
Por otra parte detallando las ventajas del Big Data ve las del avance en la investigación pues permite estudiar con datos globales más allá de las muestras, como ocurrió con el fármaco VIOXX de Merck, que con un análisis de un 1 Millón de pacientes se descubrió que podía producir infarto de miocardio y se retiró del mercado.
Otra ventaja, para el ponente, es la optimización de la medicina personalizada y predictiva pues da la posibilidad de una mejor adaptación de los fármacos y sus dosis al perfil genético de cada paciente.
El cambio en la práctica clínica por medio de dos fuentes de información basados en los datos del paciente y el conocimiento científico, dos tipos de recogida de datos complicadas que son inabarcables pero que puede que ya no lo sean en un futuro nos llevan de la mano de Manel Del Castillo a conocer a WATSON, el supercomputador que en la actualidad han llevado al hospital Memorial Sloan Kettering en New York para que aprenda: “A WATSON el ordenador que analiza el lenguaje natural y lo entiende lo han llevado a su Universidad para que aprenda sobre el cáncer de pulmón y el de mama y cree prácticas nuevas de medicina” y siguió “lo están alimentado con datos de las historias clínicas del Memorial junto a todos los conocimientos publicados al respecto”
Del Castillo finaliza su ponencia remarcando las mejoras que el Big Data puede proporcionar en la gestión de la salud.
Jordi William Carnes introduce al siguiente ponente, lanzando antes unas preguntas a los ponentes y al auditorio que quedan en el aire: ¿De quién son los datos?,¿Del paciente?, ¿De Watson?
El Tsunami
“Aún no hemos entrado en el Big Data, estamos aún en el Small Data” Así inició Vicenç Aguilera su intervención, prometiendo dar datos y hablar de coches “que es básicamente de lo que vengo a hablar”. Continuó dando información sobre este cambio espectacular que se nos viene encima pues según Aguilera “Por el volumen de información que nos llegará vemos que estamos delante de un Tsunami y los que lo sepan administrar serán los ganadores”
Aguilera piensa que no sabemos exactamente qué es el Big Data pues “cree que es más espectacular y brutal de lo que suponemos” y también “que a pesar de ser digital el cambio no será digital sino analógico porque entrará poco a poco”. Pese a este “poco a poco” parece que la velocidad de entrada será espectacular, con un cambio para el que muchas empresas ya se están preparando, concluye el ponente, que nos aporta algunos datos cronológicos de ejemplo: “YouTube hasta el 2010 suministró información por volumen de 5 Millones de Gigabites, que son 5 Petabytes, en el 2011 suministro este mismo volumen en 48 horas y en el 2013 en 10 minutos”
A partir de hacernos recordar que hace 20 años que tenemos Internet y hacernos pensar a la vez en su crecimiento espectacular durante estos años el ponente nos relata su visión: “Cuando pensamos en lo que puede pasar en el 2020 nos damos cuenta de que no hay capacidad actualmente en el mundo para almacenar el volumen de información que nos viene, por ejemplo Internet está dando en este momento 1 Zettabyte por minuto”, informa Aguilera y “todo esto se está fabricando en este momento, donde el coche es el gran desconectado, aunque ya se está empezando a conectar con las TCU con las que se envían datos desde dentro del automóvil, los del conductor por medio de su móvil, los de los pasajeros que ahora ya se pueden conectar al Wifi dentro de él, los de las cámaras del coche, etc., pudiendo enviar un promedio entre 50 y 100 Gigas a la red”
Centrándose en la carreras, de lo que naturalmente comenta no puede dejar de hablar “porque estamos en la semana de la Fórmula 1”, Albert Aguilera explica que “un Fórmula 1 cuando está circulando por la pista en una carrera tiene la capacidad de enviar 0,25 Gigabytes por segundo, enviando datos de temperatura, presiones, velocidad, etc. Al final de una carrera, en un pequeño circuito de 4 km, puede haber enviado 1,2 Zettabytes. Son 200 canales diferentes de información que toda una pirámide de ingenieros va analizando y que los coches dentro de 4 y 5 años podrán también enviar a la red”
En este punto el ponente nos aporta una didáctica información en pantalla y de forma verbal, que se agradece, sobre las órdenes de magnitud de las medidas de datos, las conocidas para centrar el tema y las más desconocidas que se nos vienen encima:
“1 Bit (es la unidad mínima de almacenamiento, 0/1)
8 Bits = 1 Byte
1024 Bytes = 1 Kilobyte (un archivo de texto plano, 20 kb)
1024 Kilobytes = 1 Megabyte (un mp3, 3 mb)
1024 Megabytes = 1 Gigabyte (una película en DivX, 1 gb)
1024 Gigabytes = 1 Terabyte (800 películas, 1 tb)
1024 Terabytes = 1 Petabyte (toda la información de Google,entre 1 y 2petabytes)
1024 Petabytes = 1 Exabyte (Internet ocupa entre 100 y 300 Exabytes)
1024 Exabytes = 1 Zettabyte (a partir de aquí no existen comparativas reales)
1024 Zettabytes = 1 YottaByte
1024 YottaBytes = 1 Brontobyte
1024 Brontobytes = 1 GeopByte
1024 GeopBytes = 1 Saganbyte
1024 Saganbytes = 1 Jotabyte”
“Si tenemos en cuenta que en el año 2020 habrá 200 millones de coches en el mundo que estarán conectados” Continuó Aguilera “la predicción es que esto es el inicio, el pequeño huevo de lo que será el Big Data”, y para que nos hagamos una idea de la dimensión de lo que está exponiendo nos cuenta también que “un Petabyte es el equivalente a 13 años de televisión de alta calidad”
Para finalizar Aguilera volvió otra vez al “volumen de información brutal” que vendrá “con una amalgama de datos impresionante” y explicó que General Motors ya está cambiando su estrategia, pues ha internalizado toda la parte digital de la compañía para poder tratar los datos disponibles que afectarán a los futuros diseños, el acercamiento al cliente, la post venta y toda la cadena de suministro
“No tenemos aún adjudicado el valor del Big Data, ni sabemos quién lo va a regular”, concluye el ponente, puntualizando que “los datos están en la red en miles y miles de servidores, lo que pone la piel de gallina” y se pregunta: “¿Estamos preparados? Yo creo que no. ¡Nos tenemos que preparar!”
Coloquio
Al final cuando se abrió el coloquio al auditorio surgió el tema de los valores referente a las bases de datos, con la pregunta de si se sigue el “no todo vale” en su tratamiento, a lo que Vicenç Aguilera contestó que tenía conocimiento de que en el sector del motor así era pero no podía asegurar que fuera general y “que era un tema difícil”. También se preguntó sobre el enfrentamiento de las empresas con los estados como en el caso ocurrido del FBI con Apple y aquí respondió Albert Agustinoy, “que esto está en la agenda y por resolver” pero que tengamos en cuenta “que no somos unos corchos flotando a la deriva sino que se van consiguiendo cosas importantes como el derecho al olvido”. Surgieron también las preguntas de los asistentes sobre la seguridad futura a lo que dieron respuesta todos los ponentes respondiendo cada uno desde su sector y poniendo en evidencia que todo es crítico y que si puedes acceder a los datos puedes provocar muchas cosas, pero no se pueden poner barreras, estando todos de acuerdo en que es un “escenario nuevo que no ha vivido nunca la humanidad”
Cerrando el acto Jordi William Carnes dio en el clavo con una última reflexión: “Estamos delante de un terreno de juego en construcción, tenemos esperanza, tenemos miedo y las reglas están por hacer, pero lo tenemos que levantar y estos debates ponen en evidencia que la sociedad no está amorfa y que marchamos hacia adelante”
ABE – Asociación para la Búsqueda de la Excelencia
Es una asociación privada sin ánimo de lucro, formada por personas físicas, con ámbito español, ambición internacional e independiente, que busca la unión de la buena gestión con valores para alcanzar la excelencia, con el convencimiento de que:
- Para ser excelentes no basta con tener éxito en la gestión, ésta se ha de basar en principios.
- Los valores y el respeto en particular, deben aplicarse en 360 grados a todo y en todos los momentos
Más información y datos de contacto:
Emilia Giró – Comunicación ABE/ABE-L
Tel 658 80 61 45 – emilia.giro@gemege.com ; e.giro@abexcelencia.org
www.abexcelencia.org