Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 707 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Senior - H/F

AMD Blue
Publiée le
Amazon Redshift
AWS Cloud
PySpark

3 ans
58k-63k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. Actuellement en production sur plusieurs continents, l'ambition pour 2026 est d'étendre cette couverture au niveau mondial. Dans ce cadre, nous recherchons un(e) Data Engineer Senior expérimenté(e) sur PySpark et l’optimisation de pipelines à grande échelle pour structurer et fiabiliser ces flux de données. Descriptif de la mission : Les missions sont : Optimisation & Refonte de pipeline : Auditer et refactorer les modules de data engineering (Refining, Covariates, Modelling, Exposition) pour améliorer les performances (compute, partitioning, joins, skew). Scalabilité & Industrialisation : Adapter la pipeline pour un déploiement mondial (multi-régions) et optimiser les coûts. Robustesse & Qualité : Renforcer les tests (unitaires, intégration, fonctionnels), le monitoring et réduire la dette technique. Collaboration : Travailler étroitement avec les Data Scientists et ML Engineers pour assurer le transfert de compétences et la montée en maturité engineering. Agilité : Piloter les priorités techniques et coordonner la stream en environnement Scrum.
CDD

Offre d'emploi
PRODUCT OWNER Data / IA

TOHTEM IT
Publiée le

9 mois
45k-55k €
Paris, France
Vos missions Au cœur des enjeux data et métiers, vous serez amené à : Analyser et comprendre les besoins métiers afin de proposer des solutions data adaptées Concevoir des modélisations fonctionnelles de données et contribuer à la définition des architectures Recueillir les besoins auprès des utilisateurs via des ateliers fonctionnels et formaliser les règles de gestion Rédiger les spécifications fonctionnelles et techniques pour les développements dans l’environnement Palantir Définir les flux de données, interfaces utilisateurs et applications agentiques Présenter les solutions développées aux utilisateurs et accompagner les phases de recette Participer à la gestion de la backlog projet et aux rituels de l’équipe BI Contribuer au suivi des applications et au support utilisateur
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Freelance
CDI

Offre d'emploi
Architecte Data Azure / Databricks

xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Freelance

Mission freelance
Chef de projet DATA avec une forte expertise en finance & Procurement Data

ARKAMA CS
Publiée le
Data analysis
Finance
SAP

3 mois
Île-de-France, France
Chef de projet DATA avec une forte expertise en finance & Procurement Data. Démarrage immédiat Lieu IDF + télétravail Durée 3 mois renouvelables, projet long Si ce projet vous intéresse, pouvez-vous svp nous faire parvenir les informations suivantes ? Votre date de disponibilité Votre taux journalier Votre lieu d’habitation Votre résumé sous format Word Niveau d’anglais Pour les sociétés, merci de préciser si votre consultant est salarié de votre société Senior Business Analyst / Project Manager (BA/PM) - Procurement Spend Analytics Tool (building & implementation Report to both Procurement business (tool owner) & Information Management Office (project management) Profil sénior (+10 years) Anglais courant indispensable Profil Ce rôle demande une forte expertise en finance & Procurement Data, ERP and/or procurement suite tool, spend classification methodologies, Data analytics/manipulation, business requirements writing, and project/stakeholder management. Connaissance de SAP, including invoices, accounting, and procurement suites/tools (Ariba, etc.) Compétences en DATA manipulation and proficient in handling large-scale transactional datasets Project Management - animation d’ateliers Forte compréhension en IT architecture, including data storage solutions and hyperscale platforms (Google Cloud Platform, SAP BW) Demonstrated experience in procurement analytics, spend analysis, spend classification, strategic sourcing, and procurement transformation initiatives Adept at building and implementing spend categorization and spend analytics tools Rôle Le client recherche un Project leader / Business Analyst/Data Analyst to participate in the Procurement Spend Analysis tool development. The Lead Business Analyst will have to manage the implementation of Procurement spend consolidation, categorization and visualization in collaboration with Business and IT. L’objectif est de remplacer une SAAS solution with an in-house solution. Vous serez responsable for data preparation, spend classification using taxonomy, leading the tool development with IT/Business, governance setup and change management to ensure successful deployment and measurable business impact. There are huge expectations from Procurement Top Management. Le Business (Product) Analyst est le pont entre le Business department and the development teams of the client IT Development organization and contributes to the client business strategy by translating business needs into sustainable products and services. On one hand, the Business (Product) Analyst ensures the right quality of the products and services already in place and on the other hand plays a key role in developing new products and services. Le Business (Product) Analyst travaille avec le business and IT stakeholders afin d’identifier, analyzer, communicate, and validate the needs for change in business processes and information systems. They are responsible for managing issues, evaluating and proposing solutions to meet expressed needs, and enabling the business organization to achieve its objectives. The Business (Product) Analyst operates under security and regulatory constraints, with a constant focus on economic optimization, while ensuring social impact and convergence of the client information systems.
Freelance

Mission freelance
ACHETEUR Domaine Market Data/

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance
CDI

Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H

Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch

2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
CDI

Offre d'emploi
Développeur PHP Laravel (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
Code Review
Jenkins

360k-540k €
Villeurbanne, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance

Mission freelance
Manager Transition Data Factory (H/F)

Cherry Pick
Publiée le
Microsoft Power BI
Pilotage

6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
CDI

Offre d'emploi
Tech Lead Data Snowflake Lille

Proxiad
Publiée le
Databricks
DBT
Snowflake

48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1707 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous