Ver oferta completa
DATA ENGINEER
Descripción de la oferta de empleo
Nos dedicamos al desarrollo de software y soluciones tecnológicas.
Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles.
Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.
Funciones del cargo Buscamos un Data Engineer con profundo conocimiento y experiencia en la orquestación de datos en entornos cloud, especialmente en AWS para la gestión de pipelines de datos.
Sólidos conocimientos para la manipulación de datos en bases de datos relacionales y la creación de procedimientos almacenados.
Con amplia capacidad para escribir consultas complejas, optimización de consultas y diseño de modelos de datos en bases de datos relacionales.
Fundamental para los procesos de extracción, transformación y carga Requerimientos del cargo Lenguajes de Programación.
• Python (Excluyente).
Dominio avanzado para el desarrollo de scripts y pipelines de datos, incluyendo experiencia con bibliotecas como Pandas, PySpark y NumPy.
• PL/SQL.
Sólidos conocimientos para la manipulación de datos en bases de datos relacionales y la creación de procedimientos almacenados.
• Scala (Deseable).
Familiaridad con este lenguaje, especialmente para trabajar con Apache Spark en entornos de Big Data.
Herramientas y Gestión de Datos.
• SQL (Excluyente).
Capacidad para escribir consultas complejas, optimización de consultas y diseño de modelos de datos en bases de datos relacionales.
Fundamental para los procesos de extracción, transformación y carga (ETL).
• Bases de Datos NoSQL (Deseable).
Experiencia con tecnologías como.
o MongoDB o DynamoDB o Cassandra o HBase • Almacenamiento de Datos.
Conocimientos en herramientas como Apache Hive y Amazon Redshift para gestionar y consultar grandes volúmenes de datos.
Tecnologías de Big Data.
• Apache Spark (Excluyente).
Experiencia en el procesamiento de datos masivos utilizando Spark, preferentemente con PySpark o Scala.
• Apache Kafka.
Conocimientos sólidos en sistemas de mensajería para la transmisión de datos en tiempo real.
• Ecosistema Hadoop (Deseable).
Familiaridad con tecnologías como HDFS, MapReduce y YARN para la gestión y procesamiento de grandes conjuntos de datos.
Computación en la Nube • AWS (Excluyente).
Experiencia avanzada en orquestación y desarrollo de pipelines ETL utilizando servicios como AWS Glue (PySpark), Lambda, S3, y Step Functions.
• Familiaridad con los principios de diseño de arquitecturas en la nube y buenas prácticas de seguridad en AWS.
• Azure Databricks (Deseable).
Conocimientos básicos o intermedios para el procesamiento de datos en plataformas de Microsoft Azure.
Soft Skills • Resolución de Problemas.
Capacidad analítica para identificar y solucionar desafíos complejos en procesos de datos.
• Comunicación.
Habilidad para documentar y presentar hallazgos técnicos a equipos multidisciplinarios.
• Colaboración.
Experiencia trabajando en equipos ágiles y en estrecha colaboración con analistas de datos, científicos de datos y otros ingenieros.
• Atención a los Detalles.
Minuciosidad para garantizar la precisión y calidad de los datos procesados.
Condiciones En WiTI, nuestro centro son las personas y la agilidad.
Por esto, creemos en los equpos 100% remotos y multiculturales, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.
Plan de carrera Certificaciones Cursos de idiomas Aguinaldos
Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles.
Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.
Funciones del cargo Buscamos un Data Engineer con profundo conocimiento y experiencia en la orquestación de datos en entornos cloud, especialmente en AWS para la gestión de pipelines de datos.
Sólidos conocimientos para la manipulación de datos en bases de datos relacionales y la creación de procedimientos almacenados.
Con amplia capacidad para escribir consultas complejas, optimización de consultas y diseño de modelos de datos en bases de datos relacionales.
Fundamental para los procesos de extracción, transformación y carga Requerimientos del cargo Lenguajes de Programación.
• Python (Excluyente).
Dominio avanzado para el desarrollo de scripts y pipelines de datos, incluyendo experiencia con bibliotecas como Pandas, PySpark y NumPy.
• PL/SQL.
Sólidos conocimientos para la manipulación de datos en bases de datos relacionales y la creación de procedimientos almacenados.
• Scala (Deseable).
Familiaridad con este lenguaje, especialmente para trabajar con Apache Spark en entornos de Big Data.
Herramientas y Gestión de Datos.
• SQL (Excluyente).
Capacidad para escribir consultas complejas, optimización de consultas y diseño de modelos de datos en bases de datos relacionales.
Fundamental para los procesos de extracción, transformación y carga (ETL).
• Bases de Datos NoSQL (Deseable).
Experiencia con tecnologías como.
o MongoDB o DynamoDB o Cassandra o HBase • Almacenamiento de Datos.
Conocimientos en herramientas como Apache Hive y Amazon Redshift para gestionar y consultar grandes volúmenes de datos.
Tecnologías de Big Data.
• Apache Spark (Excluyente).
Experiencia en el procesamiento de datos masivos utilizando Spark, preferentemente con PySpark o Scala.
• Apache Kafka.
Conocimientos sólidos en sistemas de mensajería para la transmisión de datos en tiempo real.
• Ecosistema Hadoop (Deseable).
Familiaridad con tecnologías como HDFS, MapReduce y YARN para la gestión y procesamiento de grandes conjuntos de datos.
Computación en la Nube • AWS (Excluyente).
Experiencia avanzada en orquestación y desarrollo de pipelines ETL utilizando servicios como AWS Glue (PySpark), Lambda, S3, y Step Functions.
• Familiaridad con los principios de diseño de arquitecturas en la nube y buenas prácticas de seguridad en AWS.
• Azure Databricks (Deseable).
Conocimientos básicos o intermedios para el procesamiento de datos en plataformas de Microsoft Azure.
Soft Skills • Resolución de Problemas.
Capacidad analítica para identificar y solucionar desafíos complejos en procesos de datos.
• Comunicación.
Habilidad para documentar y presentar hallazgos técnicos a equipos multidisciplinarios.
• Colaboración.
Experiencia trabajando en equipos ágiles y en estrecha colaboración con analistas de datos, científicos de datos y otros ingenieros.
• Atención a los Detalles.
Minuciosidad para garantizar la precisión y calidad de los datos procesados.
Condiciones En WiTI, nuestro centro son las personas y la agilidad.
Por esto, creemos en los equpos 100% remotos y multiculturales, nos gusta compartir conocimientos entre todos y distintas áreas, cómo compartir tiempo extra para conversar sobre videojuegos, películas, seríes y cualquier topic interesante para nosotros.
Plan de carrera Certificaciones Cursos de idiomas Aguinaldos
Ver oferta completa
Detalles de la oferta
Empresa
- WiTi
Localidad
- En todo Chile
Dirección
- Sin especificar - Sin especificar
Fecha de publicación
- 21/01/2025
Fecha de expiración
- 21/04/2025