En la recepción estos chicos de Madrid, y alguno también del sur, nos obsequiaron con iPatch, es decir, un cacharrito de plástico para tapar la webcam de portátiles, a parte de un descuento en los masters que venían a promocionar. Todo un detalle la encuesta para que opináramos del evento, debería de ser algo obligatorio en cualquier conferencia que se precie.
Hubo tres presentaciones; primero Javier Moralo habló de Internet de las Cosas, Inteligencia Artificial y Big Data, nos dio datos y fechas muy interesantes en las que todas estas tendencias nacieron, y lo más sorprendente que solo recientemente, se han potenciado.
Javier Moralo y Gregorio Romero de Datahack |
También nos habló de qué significa BigData, no solo de las tres V que se conoce, Velocidad, Variedad y Volumen, sino también otras "Vs" como de que el BigData tiene que ser Verificado y que aporten Valor.
El campo es tan grande y tan por explorar que afirmó que solo se está usando el 20% de los datos que existen en las empresas para tomar decisiones, por eso prometía un futuro de mucho trabajo en esta área.
Todo se puede medir, hasta el color de Sevilla, ¿Sabéis cual es el color de nuestra ciudad? Tomad nota, el #FFAB60
La siguiente ponencia sobre empleabilidad corrió a cargo de Lourdes, CEO fundadora de Datahack, nos contó como fue la idea de crear ésta; en un principio academia y ahora algo más que un centro de estudio.
Lourdes, CEO de Datahack |
Datahack labs, Consultoria y Proyectos como robots para tratamientos de enfermedades degenerativa.
Datahack Share, Donde comparten toda la información. Comunidad de conocimiento, y sea a través de eventos como meetups o congresos.
Datahack School, Formación con profesores expertos, Práctico. Adaptan el master a lo que demandan las empresas.
Datahack Seed, Un área nueva de recursos humanos, ya que prepara gente, pues ¿por qué no gestionar su empleabilidad?
¿Por qué surge Datahack? Porque existe un gap entre lo que demanda el mercado y los profesionales existen, además la formación que exitía, y que mayor mente sigue exitiendo en estas áreas es/era demasiado teórica. o muy específica en cada materia.
¿Qué hay que saber para estudiar esto? pues muchas herramientas.
Hizo un repaso de las dos áreas que ellos llevan trabajando, el Analytics machine learning y la Arquitectura de datos, además de los nombres que se le dan a estos tipos de especialistas como DATA SCIENTIST, DATA ENGINEER, DATA ARCHITECT, DATA ANALIST, STATISTICIAN, DATABASE ADMINISTRATOR, DATA ANALYTICS...
Pero los profesionales con esos títulos no sólo necesitan APTITUDES como saber estadisticas, analitica, reporting, visualización, almacenamiento y procesamiento, sino que también ACTITUDES como curiosidad, creatividad, flexibilidad, aprendizaje, motivación...
En su presentación, hizo un análisis de como está el mercado en demanda de este tipo de profesionales y, aunque se basó en Infojobs, dijo que no era realmente el mejor sitio para buscarlos, las cifras eran pequeña localmente, pero grandes a nivel mundial en previsiones en los próximos años, además, como confirmó uno de los asistentes, casi el 90% de la oferta no se hace publica, se cuece entre las empresas y los centros de formación, ni da tiempo a publicarlas y si lo hacen es con motivos de autopublicidad para decir que ellos están en "la onda" contratando este tipo de trabajadores de moda.
Lourdes, afirmó que el 100% de los alumnos que terminan el master encuentran trabajo y que el nivel que poseen es como si lo hubieran hecho en una empresa durante dos años como junior, ya que se trabaja con casos reales y siempre prácticos, y sobre todo, porque se dan muchas herramientas, no una, la que por defecto puede usar una empresa en su dia a día.
Para Lourdes, el producto que esta tarde presentaba en Sevilla no era el master, son las personas que forma Datahack.
Resumen de las ponencias en #VisualThinker |
En CONTENIDOS, nos explicó los dos grandes bloques en los que consiste, para especializarte en Científico de datos, los encargados de extraer los datos y convertirlos en información. Estaditica, R, python, y/o arquitecto de datos. Y los Arquitectos de datos, encargados de diseñar la infraestrutura para mantener, extraer y procesarlos. Hadoop, Spark
El calendario, 22 fines de semana hasta abril, antes de feria, en horario de viernes tarde y sábado por la mañana. Aunque siempre se le va a pedir trabajo extra, a una media de dos o tres horas por sesiónn presencial
Los casos de uso seran muy variados, podrán ser desde Análisis de comportamiento de clientes, Personalización oferta, Modelo bursátil, Detección de ciberataques, Seguridad personas, Optimización del transporte, Mejora del rendimiento deportivo, Salud Prevención temprana, etc.
Goyo definió El big data como una solución buscando problema.
Y al igual que Lourdes recomendó los siguientes perfiles para hacer el master:
Personas con conocimientos y/o experiencia técnica.
Que desean mejorar condiciones laborales
Empleados que encuentran estos problemas.
Que estén dispuestos a un esfuerzo extra.
Y las cosas básicas que hay que tener para hacerlo Motivación y Capacidad.
Asi ahi estoy, poniéndome las pilas en programación para ver si puedo optar una plaza en este master de Datahack.
¿Te apuntas conmigo? Si llevo a un amigo nos hacen un buen descuento a los dos.
Venga, pregúntame o, mejor aún, pregúntale a ellos, que estarán encantados de ayudarte.
Asistentes a la inauguración de Datahack Sur |
0 comments:
Publicar un comentario