Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 856 résultats.
CDI

Offre d'emploi
Traffic Manager SEA/SEO

Publiée le
Google ads
Google Analytics
Google Search Console

35k-45k €
Paris, France
Télétravail partiel
Dans le cadre d'une forte croissance e-commerce en France et en Europe, un de nos clients cherche un(e) Traffic Manager SEA / SEO avec un ownership complet sur le levier Google Ads et une solide compréhension des enjeux digitaux. Google Ads Mise en place et optimisation in-house des campagnes Search, Performance Max et YouTube Suivi quotidien des performances et logique ROIste Gestion et optimisation du flux produit Déploiement des campagnes sur plusieurs marchés européens Coordination des contenus pour les campagnes YouTube Roadmap d’A/B tests sur vos leviers Gestion de projet SEO
Freelance

Mission freelance
Network Engineer

Publiée le
Cisco
F5
LAN

12 mois
400-650 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Le poste consiste à assurer la gestion du campus réseau traditionnel (LAN Cisco), l’administration du contrôleur Wi-Fi Cisco et la gestion de l’infrastructure Data Center Cisco. Le rôle inclut également la sécurité réseau via les firewalls Checkpoint et Palo Alto, ainsi que la gestion du delivery et du load balancing avec F5. Le service réseau comprend la gestion du NAC, élément central de l’infrastructure. La mission se déroule à 35 minutes d'Aix-en-Provence. Le contexte est international et requiert un anglais professionnel.
CDI
Freelance

Offre d'emploi
DevSecOps Engineer – secteur Telecom – Paris (H/F)

Publiée le
Administration système
Kubernetes
Linux

12 mois
50k-70k €
500-550 €
Paris, France
Télétravail partiel
Principales : - Concevoir, développer et intégrer des solutions de sécurité open source abordant des problématiques telles que l'authentification, le chiffrement et la protection DDoS. - Construire et déployer des briques sécurité en interaction directe avec les équipes Systèmes et Développement. - Participer aux audits de sécurité et à la revue de code pour assurer les meilleures pratiques. Annexes : - Réaliser des revues de design focalisées sur la sécurité. - Collaborer pour détecter et corriger les vulnérabilités. - Maintenir une documentation sécurité conforme aux normes (CNIL, CAC, ANSSI). - Sensibiliser et animer les équipes tech autour des enjeux de sécurité dès la conception.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Data Warehouse
Oracle
SQL

1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst (H/F)

Publiée le
Databricks

6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Freelance

Mission freelance
Golang Backend Engineer

Publiée le
DevSecOps
Go (langage)
Kubernetes

1 an
100-500 €
Île-de-France, France
Télétravail partiel
Je recherche un Golang Backend Engineer pour l'un de mes clients en Ile de France. - Longue mission. - Démarrage début décembre ou début janvier. - 2/3 jours de TT par semaine. - Profil sénior. Contexte : Mise en place de Kubernetes. Stack technique demandée : - Concevoir, développer et maintenir un opérateur Kubernetes (CRDs, Controllers, etc.) - Automatiser la gestion de services dans un cluster Kubernetes - Maitrise du langage Golang - Contribuer à la mise en place de bonnes pratiques d’observabilité (logs,metrics, traces) - Assurer la maintenance, les tests, la documentation et la revue de code - Collaborer avec l’équipe (infrastructure, DevOps) pour respecter les bonnes pratiques cloud-native et DevSecOps - Surveiller et optimiser les performances et la fiabilité de l’opérateur K8S pour la production - Gestion des secrets (Vault)
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
CDI

Offre d'emploi
Data Engineer Snowflake - Lyon

Publiée le
Snowflake

40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Freelance

Mission freelance
Techlead Data à Paris ou Lille (H/F)

Publiée le
Cloud
ETL (Extract-transform-load)
Google Cloud Platform (GCP)

3 mois
400-600 €
Paris, France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Techlead Data. Le Tech Lead Data assure le leadership technique sur la conception, le développement et l’optimisation des traitements de données. Il définit les standards techniques (ETL/ELT, DBT, modélisation), veille à la qualité et la performance des livrables, et accompagne les Data Engineers dans la mise en œuvre des pipelines. En collaboration avec l’architecte et les business data analysts, il participe aux choix technologiques, conçoit des solutions robustes et maintenables, et intervient en lead sur les développements les plus complexes, notamment sur les projets stratégiques. Missions principales Leadership technique : définition des bonnes pratiques, encadrement des Data Engineers, veille technologique. Conception & développement : pilotage et optimisation des chaînes de traitement, développement de pipelines complexes, industrialisation et automatisation. Qualité, sécurité & performance : fiabilité, disponibilité, sécurité, mise en place d’outils d’observabilité et de monitoring. Support & accompagnement avancé : formation des équipes, coaching, gestion des incidents critiques (N3), amélioration continue. Interactions inter-pôles : Avec la Data Plateforme : définition des standards, supervision des choix techniques. Avec la Data Valorisation : mise à disposition de données fiables pour la BI. Avec la Data Intégration : cohérence des flux et qualité des données transférées.
Freelance
CDI

Offre d'emploi
Data Engineer (21)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
DevOps Infrastructure Engineer (H/F)

Publiée le

36 mois
500-600 €
Suresnes, Île-de-France
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Freelance

Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX

Publiée le
DAX
SQL

15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Freelance

Mission freelance
Analytics Engineer – Expertise Cornerstone

Publiée le
Analyse

1 an
100-550 €
Île-de-France, France
Description de la mission Pour le besoin de mon client basé à Paris , je suis à la recherche d'un Analytics Engineer – Expertise Cornerstone Tâches Contexte : Au sein du HR Data Office, accompagner les Business Process Owners (BPO) Formation dans la définition et la création de dashboards Power BI, en exploitant les données issues de Cornerstone onDemand. Objectifs : Traduire les besoins métier en exigences claires pour la création de dashboards. Créer, mettre à jour et maintenir des dashboards Power BI pour la formation. Étudier les options de reporting Cornerstone et optimiser les reportings existants. Fournir des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes et stakeholders. Documenter les solutions mises en place. Compétences Demandées Compétences requises : Expertise Cornerstone onDemand (obligatoire) Maîtrise Power BI, DAX, Power Query Modélisation de données, publication, sécurité (RLS), refresh PBIRS Compréhension des KPIs et besoins utilisateurs Anglais professionnel Capacité à former et expliquer les dashboards
CDI
Freelance

Offre d'emploi
Ingénieur de Production DevOps

Publiée le
Apache
Apache Tomcat
Bitbucket

3 ans
30k-50k €
350-540 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Ingénieur de Production DevOps confirmé pour rejoindre le service RIC, en charge de la production applicative des applications Risques de Crédit . Vous interviendrez sur un périmètre composé d’environ 70 applications , avec un rôle à la fois sur le RUN (exploitation et maintien en conditions opérationnelles) et le BUILD (intégration et déploiement). Au sein d’un environnement Agile et collaboratif, vous serez responsable de l’installation complète des applications, de leur supervision et du bon déroulement des déploiements, en garantissant la qualité et la disponibilité des services. Vos principales missions : Réaliser les installations applicatives Windows/Linux de bout en bout Ordonnancer les traitements applicatifs et techniques sous Control-M Assurer le support N2 DevOps (Jenkins, XLR, XLD) et Middleware (IIS, Apache, Tomcat, JBoss) Réaliser et coordonner les activités RUN : obsolescence, vulnérabilités, supervision et maintenance Développer et optimiser les chaînes d’ordonnancement et les tester en environnement Hors-Prod avant déploiement Être référent applicatif sur 5 à 6 applications et interlocuteur privilégié des équipes de développement (Scrum Master, Business Analyst, développeurs) Produire les livrables d’exploitabilité : sauvegardes, supervisions, DEX, DAT, fiches consignes, etc. Participer activement à la gestion des incidents, à l’amélioration continue et à la mise en œuvre des meilleures pratiques DevOps
856 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous