L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 62 résultats.
Mission freelance
Big Data Engineer (h/f)
Publiée le
1 mois
450-550 €
France
Télétravail partiel
Introduction & Résumé Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe et être responsable de la mise à disposition des données relatives aux études et projets d’intelligence artificielle. Vous aurez l’opportunité de travailler sur des technologies de pointe dans un environnement dynamique. Responsabilités En tant que Data Engineer, vous serez chargé de : Réaliser les spécifications techniques pour les flux de données (ingestion, transformation, etc.). Assurer le développement de solutions d’ingestion de données et de Data Engineering. Développer des flux (Kafka, Talend, Spark, Pyspark). Environnement Technique : Big Data, Cloudera, Hive, Spark, Pyspark, Kafka, Talend, SQL Server, PowerBI Key Requirements Formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data. Expérience de 7 ans minimum sur un poste similaire. Parfaite maîtrise dans la conception, le développement et l’optimisation de flux. Expérience dans l'écosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark). Connaissance des bases de données relationnelles (SQL Server). Nice to Have Maîtrise de Talend et compétences en Datavisualisation. Capacité à échanger en Anglais à l’écrit et à l’oral. Autonomie, capacités d’adaptation et sens de la communication. Autres Détails Localisation : Dunkerque. Télétravail : 1 jour de télétravail par semaine. Durée : Minimum 10 mois.
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Mission freelance
Architecte Domaine Data - Azure (h/f)
Publiée le
1 mois
550-680 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Résumé : Vous rejoignez notre client pour prendre le Lead Technique sur le pôle Achats. Vous interviendrez pour mettre en place différents environnements et services en cohérence avec l’architecture globale. Responsabilités : A ce titre, vous serez en charge de : Définir des architectures avec un haut niveau de qualité, une valeur métier pertinente et une maintenabilité à long terme, en collaboration avec les équipes Data (DPO, Data Analysts, Data Engineers, Data Scientists, Architectes Data) Fournir un leadership technique, participer aux efforts de développement et représenter l’ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes, en charge de superviser les processus de gestion des données et d’apporter conseils et orientations aux équipes de développement. Assurer la conception et rédiger la documentation des solutions de votre domaine. Soutenir le DPAO dans le traitement des demandes de l’Area Manager Définir la roadmap et accompagner les équipes dans la priorisation de leur backlog Veiller en permanence à l’alignement des produits avec l’architecture globale Vous avez de l’expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout, en tenant compte de l’architecture d’entreprise et des standards de l’industrie. Vous êtes habitué à concevoir, documenter et maintenir des modèles de données logiques et physiques. Veiller à ce que les produits livrés par votre équipe stable soient alignés avec l’architecture cible globale du Volvo Group . Pour ce poste, nous recherchons un Architecte Data Azure ayant une excellente connaissance des services de la stack Azure Analytics et une expertise avancée sur Databricks . Must Haves : Une formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data Votre expérience de 8 ans minimum sur un poste similaire en tant que Data Architecte Votre expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout Votre expertise des services Azure Analytics (ADLS, SQL DB, ADF, Power BI) Votre fort leadership technique et votre capacité à définir et piloter des roadmaps Vos excellentes capacités de communication en français et en anglais (Niveau Courant C1) Compétences en leadership technique. Nice to Haves : Votre connaissance du secteur industriel Vos certifications Azure Autres détails : Date de démarrage : ASAP Localisation : Lyon (69). Dans le cadre de vos fonctions, vous pourrez bénéficiez de 2 jours de télétravail par semaine
Offre d'emploi
CTO / Lead Tech
Publiée le
Développement
Strasbourg, Grand Est
Construction de la plateforme data & mobile MyRacingCoach Localisation : Strasbourg, Grand Est, France Type de contrat : CDI / Freelance Date de début : Dès que possible Rythme : Télétravail et hybride Contexte : MyRacingCoach développe une application mobile dédiée à l’analyse de données GPS et télémétriques afin d’aider les pilotes de course à progresser plus vite. Notre cœur de valeur repose sur deux modules principaux : • un module d’analyse des données (trajectoire, freinage, vitesse, cohérence du pilotage), • un module d’intelligence artificielle capable de produire des recommandations personnalisées. Ces briques techniques deviennent centrales pour accompagner les pilotes dans leur performance globale. Nous entrons maintenant dans une nouvelle phase : passer de prototypes et POC métiers à une infrastructure robuste, intégrant les algorithmes, les flux de données, le backend, les APIs et l’application mobile. Le rôle du CTO est de concevoir, structurer et superviser toute l’architecture technique, tout en constituant une équipe solide. Missions principales : • Définir l’architecture globale de la plateforme (backend, APIs, base de données, pipelines data, sécurité). • Encadrer le développement des micro-services d’intégration, de traitement et d’exposition des données. • Collaborer étroitement avec l’ingénieur data pour industrialiser les algorithmes métiers. • Travailler avec le développeur mobile pour garantir une expérience fluide et cohérente. • Mettre en place les environnements cloud, CI/CD, monitoring et bonnes pratiques de qualité. • Structurer et faire grandir l’équipe tech (recrutement, mentoring, organisation). • Veiller à la scalabilité et à la performance sur des volumes croissants de sessions de pilotage. • Définir la roadmap technique avec le CEO et contribuer fortement à la vision produit.
Offre d'emploi
Ingénieur Microsoft BI - N
Publiée le
DAX
Maintien en condition opérationnelle (MCO)
SQL
18 mois
20k-60k €
Nantes, Pays de la Loire
Télétravail partiel
CONTEXTE : Expérience : 8 ans et plus Métiers Fonctions : Data Management, Ingénieur Spécialités technologiques : Data management, Business Intelligence Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de l'architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. MISSIONS - Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. - Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). - Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). - Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. - Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). - Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant. Expertise souhaitée Maîtrise des Composants BI : o Pratique régulière et maîtrise des composants SQL Server 2017 tels que SSMS, SSIS et Power BI. o Expérience avec les outils serveurs et les composants/services cloud Azure, notamment SQL Managed Instance et Data Factory. Optimisation des Performances : o Connaissance des leviers pour optimiser les coûts des requêtes et les performances des modèles sémantiques. o Familiarité avec des outils tels que les plans d’exécution, DAX Studio, Measure Killer et Tabular Editor. o Connaissances en administration d’une plateforme Power BI et Report Builder. o Expérience avec Fabric (Lakehouse, Entrepôt, DataFlow Gen2, Notebook). Aptitudes Personnelles : o Autonomie, communication et organisation. o Capacité à travailler en équipe et à communiquer efficacement Langue : o L’anglais courant sera un plus apprécié.
Mission freelance
Administrer moteurs bases de données et plateformes data
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Offre d'emploi
Administrateur base de données
Publiée le
Elasticsearch
Google Cloud Platform (GCP)
Greenplum
1 an
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Mission freelance
BI Specialist - Industrie
Publiée le
BI
1 an
550-650 €
Belgique
Contexte Nos usines produisent des éléments de turboréacteurs en titane avec des opérations d’usinage et de forge d’une précision de 10 µm. L’équipe Manufacturing 4.0 est en charge d’apporter les outils digitaux et les moyens technologiques 4.0 en support aux équipes métier et de production industrielle. Dans le cadre d’un ambitieux projet de modernisation de sa solution Industry 4.0, l’équipe Manufacturing 4.0 est à la recherche d’un BI Specialist . Ce rôle a pour objectif de concevoir et de déployer des solutions de Business Intelligence de bout en bout : de l’exploration et la structuration des données à la création de tableaux de bord et d’indicateurs de performance en production, tout en assurant le respect des meilleures pratiques en matière d’intégration de données et de gestion des outils BI. Style du management L’équipe est pilotée et animée en mode projet sur des principes d’Agilité (Sprints, Sprint reviews et Daily meeting) et en mode collaboratif. Ce sont alors l’esprit d’équipe, la pro-activité, la polyvalence et l’autonomie qui seront le socle de la vie au sein de l’équipe. L’équipe est orientée « résultats » et non « moyens » afin d’apporter toutes les solutions aux sujets et projets à traiter, tout en efficacité. Prendre plaisir à s’impliquer et atteindre ses objectifs, être curieux et à l’écoute, savoir être autonome et prendre des initiatives, être force de proposition, agir en transparence et dans la bienveillance, être orienté résultat, sont les qualités principales attendues. Attrait pour la fonction Le projet consiste à concevoir puis développer la solution technologique Manufacturing 4.0 du futur. Les solutions mettront en œuvre le meilleur de l’état de l’art, y compris le pilotage de l’usine par la donnée, l’usage de la robotique et l’intelligence artificielle. Tâches En collaboration avec les équipes DSI internes, vous : Explorez, analysez et préparez les données issues des systèmes industriels (machines, capteurs, MES, qualité, production) Concevez et maintenez des modèles décisionnels adaptés aux contraintes industrielles Développez des tableaux de bord orientés performance, qualité et amélioration continue Mettez en œuvre des chaînes de préparation et rafraîchissement des données industrialisées Déployez et maintenez les contenus BI dans Power BI Service Assurez la qualité, cohérence et traçabilité des indicateurs Collaborez avec les équipes IT et data pour l’intégration BI Documentez les solutions et partagez les bonnes pratiques Challenges Être un acteur clé de la transformation Manufacturing 4.0 par la donnée Mettre à disposition des indicateurs fiables et exploitables dans un environnement industriel exigeant Concilier besoins métiers, qualité des données et contraintes techniques Faire preuve d’autonomie, proactivité et esprit critique Être force de proposition pour améliorer pratiques BI et gouvernance Partager les bonnes pratiques BI avec l’équipe data et les parties prenantes Contacts internes et externes Intégration dans l’équipe Manufacturing 4.0 aux côtés d’ingénieurs data, IT et industriels Interactions étroites avec les équipes MES, UNS, Qualité, IT et Cloud Interaction possible avec d’autres fonctions de l’entreprise
Offre d'emploi
DATA Engineer GCP
Publiée le
Google Cloud Platform (GCP)
Python
Scrum
18 mois
20k-60k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
ARCHITECTE SOLUTION DATA
Publiée le
Architecture
AWS Cloud
Data visualisation
74k-82k €
Paris, France
Télétravail partiel
Forte expertise d’architecture Big Data et Cloud. Au sein de la Data & IA Fabric, couvrant les missions d’étude, de conception, de réalisation et de maintenance du socle Data et des SI du périmètre, ainsi que l’accompagnement des métiers dans l’utilisation des différentes plateformes Data existantes ou en développement. Mission : concevoir et construire l’architecture fonctionnelle, logique, physique et opérationnelle des plateformes dans le cadre de la stratégie des socles Data (Plateformes Data). Assister les architectes solutions, devops et data ingénieurs des squads Plateformes dans leurs activités de BUILD et de RUN. Build EXEMPLE : Proposer des évolutions des briques socle, rédiger leur cadrage technique, voire même, selon le profil du consultant, contribuer directement à leur intégration et configuration. Participer à la priorisation des fonctionnalités dans les cadrages de versions des socles plateformes. Définir des normes de développement sur la plateforme Data Groupe. Participer à la validation de la stratégie de recette (TU, TI, TAU) applicables aux développements Plateforme d’un côté, et aux développements de la squad Projet de l’autre Assurer la gestion des risques techniques et de la réversibilité pour la platform Data et le Data Catalogue Groupe Run EXEMPLE : Positionner, superviser voire Contribuer au maintien en conditions opérationnels des plateformes Data et du Catalogue Groupe (maintenance corrective, préventive et évolutive) Support expert N3 Sous la responsabilité du Product Owner de la Plateforme Data Groupe Il s’appuiera sur une équipe complète de DevOps, Data Ingénieurs et des leads de pratique Data Management, Dataviz et ML Ingénierie, ainsi que sur un pool d’architectes dédiés. Expériences réussies d’au -moins 6 ans dans le conseil en architecture solution data Expérience d’au moins 3 ans comme data ingénieur, en vue de la création, l’orchestration et monitoring de flux de données, sur des clouds publics, de préférence AWS Une expertise de développement en langage Spark et Python, pendant au moins 3 ans, est requise afin de réaliser les code reviews Une expérience sur Databricks d’au moins 4 ans sur une plateforme. Une 1è certification Databricks officielle est requise Une expérience d’intégrateur, de mises en production avec les technologies : Terraform, ou Jenkins, Docker ou Kubernetes. Paris 12 – 3 jours de TT
Offre d'emploi
Staff Engineer IA / IA Générative
Publiée le
AWS Cloud
Docker
Git
6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Mission freelance
Data Engineer cloud Google (GCP)
Publiée le
API
Google Cloud Platform (GCP)
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Mission freelance
Développeur Vuejs/Nodejs
Publiée le
Node.js
Vue.js
3 mois
380-400 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un développeur full stack frontend/backend en Javascript pour compléter une feature team en charge de développer les produits digitaux en lien avec les projets de nos clients (configuration, estimation, prise de rendez-vous ....). L'équipe est actuellement composée d'un PO, d'un lead dev, 2 développeurs full stack, d'un UX/UI, 1 data ingénieur. Le développeur doit avoir minimum 4 ans d'expérience dans le développement de produits digitaux (hors alternance, stage ...). Le développeur aura en charge de : - réaliser du Build et du Run sur des produits digitaux composés d'API, de front et de back. - de travailler en mode agile avec l'équipe de dev, du PO, OPS et des équipes transverses. - de livrer et de commiter du code source et d'être garant de la qualité de celui-ci - de réaliser la documentation nécessaire pour permettre la compréhension de son code - de réaliser des code review avec les autres développeurs - de réaliser en collaboration avec notre équipe OPS Transverse des tâches d'observabilité et de monitoring (datadog)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Micro-entreprise après EURL ?
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Projet d’enseignement création de parcours de formation/centre formation
- Besoin de vos avis : projet innovant VTC
- entrerprise freelance incompatible avec le portage salarial?
- Choix du régime fiscal IR ou IS pour une SCI – traitement des travaux
62 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois