Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 013 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer

CELAD
Publiée le
Azure Data Factory
Big Data

1 an
49k-55k €
400-550 €
Île-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

Freelance

Mission freelance
Cloud engineer

ESENCA
Publiée le
Automatisation
CI/CD
DevOps

3 mois
Lille, Hauts-de-France

A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes GCP/Kubernetes - Confirmé - Impératif CI/CD - Confirmé - Impératif Français Courant (Impératif) Anglais Professionnel (Impératif)

CDI

Offre d'emploi
Développeur ORACLE BI Publisher - H/F

SCALIAN DS
Publiée le
Big Data
Linux

40k-50k €
Paris, France

À propos du poste : Secteur d'activité : domaine bancaire Contexte : développement et maintenance des solutions éditiques (BI Publisher) / support de production sur des applicatifs à base de technologies SQL Oracle et Linux / accompagnement des équipes opérationnelles Vos missions principales : liste non exhaustive plus de détails par téléphone Développement des solutions éditiques sous Oracle BI Publisher (format RTF) Rédaction des spécifications techniques et dossiers d’exploitation Réalisation de tests unitaires Développement et optimisation des composants base de données (modèles BI Publisher, procédures stockées, vues, indexes…) Déploiement en environnement de production Traitement des demandes de maintenance évolutives et correctives Suivi de production et support de niveau 2 et 3 Assistance aux utilisateurs métiers

Freelance

Mission freelance
Architecte Sécurité & Réseau Cloud - SRE

MEETSHAKE
Publiée le
Azure
Google Cloud Platform (GCP)
IBM Cloud

6 mois
Paris, France

Mission Principale : Vous êtes le garant de la posture de sécurité et de la connectivité de nos plateformes. Vous concevez une architecture "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent à nos équipes de développer et d'opérer des services fiables et sécurisés à grande échelle. Vous déclinez les exigences de la Securité Fonctionnelle dans le SI Responsabilités Clés : Conception d'Architecture Sécurisée sur le Cloud IBM : Produire les HLD (High-Level Design) et les DAT (Dossier d'Architecture Technique) pour les briques de sécurité (IAM, PKI, gestion des secrets, etc.) et réseau (segmentation, peering, firewalling, WAF). Gestion des Identités et des Accès (IAM) : Définir et implémenter la stratégie de gestion des identités (humaines et machines), les politiques de moindres privilèges et les processus de revue des accès sur IBM Cloud et Keycloack. Gestion des flux Nord-Sud et Est-Ouest : Définir et implémenter une strategie des flux dans le SI entre les différentes applications/Layers Sécurité des Flux et Chiffrement : Établir les standards pour la sécurisation des flux réseaux (mTLS, VPN, etc.) et les politiques de chiffrement des données au repos et en transit. Infrastructure à Clés Publiques (PKI) : Piloter la stratégie de gestion du cycle de vie des certificats pour l'ensemble de nos services en s’appuyant sur Secret Manager ou Hashicorp Vault Patterns & Automatisation : Créer et maintenir les patterns d'architecture de sécurité réutilisables, notamment sous forme de modules IaC, en collaboration avec l'Architecte Infra. Test de Sécurité : Concevoir, planifier et superviser les campagnes de test de Sécurité, de l'hypothèse à l'analyse post-mortem, en collaboration avec les équipes SRE, de développement. Et l’Architecte Resilience IT et Chaos Engineering Veille et Conseil : Agir en tant qu'expert et conseiller auprès du Leader des Architectes Sécurité sur les menaces et les stratégies de mitigation.

Freelance
CDI

Offre d'emploi
Data Engineer Stambia (F/H)

CELAD
Publiée le
ETL (Extract-transform-load)
Microsoft SQL Server
ODI Oracle Data Integrator

3 ans
40k-47k €
400-500 €
Lille, Hauts-de-France

CDI/Freelance/Portage 💼 – 3 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du secteur bancaire ? Cette mission est peut-être faite pour vous ! 💼🚀 Vos missions : Concevoir, développer et maintenir des flux d’intégration de données avec Stambia, en lien avec les besoins métiers et les exigences des projets décisionnels. Participer à la modélisation des données, à l'alimentation des entrepôts (Data Warehouse) et au traitement des données issues de sources hétérogènes. Garantir la qualité, la performance et la fiabilité des traitements ETL, tout en contribuant à l’optimisation des chaînes d’intégration et à l’industrialisation des processus.

Freelance
CDI

Offre d'emploi
Software Data Engineer H/F

HIGHTEAM
Publiée le
Scala

3 ans
La Défense, Île-de-France

Nous recherchons un(e) Software Data Engineer pour l'un de nos clients grand compte. Missions : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture médaillon (silver + gold layers) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes. Compétences requises : • Expertise en Scala et Spark. • Expérience significative dans le développement d'ETL en contexte Big Data. • Expérience AWS (Glue, Lambda, Step Function, S3, etc.) : niveau intermédiaire avec expérience pratique • Compétences Dev/Ops • Capacité à travailler en équipe et à communiquer efficacement avec les parties prenantes. • Organisation, orientation résultats et intérêt marqué pour le fonctionnel. • Des compétences en Python et REACT seraient un plus pour le candidat

Freelance
CDI

Offre d'emploi
Développeur Java/VueJs (F/H)

CELAD
Publiée le
Google Cloud Platform (GCP)
J2EE / Java EE
Spring WebFlux

1 an
40k-45k €
400-550 €
Lille, Hauts-de-France

CDI/Freelance/Portage 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du retail ? Cette mission est peut-être faite pour vous ! 🚀 Vos missions : Développer et maintenir des applications web en Java et Vue.js, en lien avec les besoins métiers et les évolutions fonctionnelles. Participer à la conception technique et à l’implémentation d’APIs REST robustes ainsi que d’interfaces utilisateur réactives. Contribuer à la qualité du code (tests, revues, documentation) et à l’amélioration continue de l’architecture logicielle.

Freelance
CDI

Offre d'emploi
Data engineer senior-Nantes-

Argain Consulting Innovation
Publiée le
Apache Kafka
PySpark
Scala

15 mois
40k-45k €
400-550 €
Nantes, Pays de la Loire

Tâches : - Développer et réaliser de nouvelles fonctionnalités/usages définis et priorisés (user stories) au sein de l’équipe client, tout en respectant les règles de gestion et les critères d’acceptation associés. Contexte Equipe de 12 personnes composée d'un PO et d'un Scrum Master, a pour objectif de constituer une vision 360 des clients en temps réel afin de servir des usages digitaux communautaires. En plus de contribuer pleinement aux enjeux majeurs de modernisation du système d’information Marketing. L'équipe assure aussi au quotidien le bon fonctionnement de produits à valeur ajoutée L’équipe évolue dans un cadre Scrum basé sur les valeurs et pratiques agiles. Attendu : Contribuer et recueillir les besoins - Définir les architectures des solutions avec le reste de l’équipe - Fabriquer et tester les solutions en mettant l'accent sur l'automatisation des tests - Déployer dans les différents environnements - Garantir le bon fonctionnement en production - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Freelance

Mission freelance
Tech lead data engineer H/F

Pickmeup
Publiée le
Azure
Azure DevOps
Databricks

1 an
500-580 €
Châtillon, Île-de-France

🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.

Freelance

Mission freelance
Développeur Java/Vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Entreprise Java Bean (EJB)
Google Cloud Platform (GCP)

2 ans
100-450 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java/Vue (H/F) à Lille, France. Contexte : Développer en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Mise en place d’outils de monitoring (DataDog) Assistance des utilisateurs sur le run technique MOB, Pair review Les missions attendues par le Développeur Java/Vue (H/F) : Vous disposez d'une très bonne expérience en développement back en Java Vous avez de l'appétence pour le dev front (vue + JS typescript) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform et de GO est un plus Vous travaillez dans un contexte Infra, vous maitrisez le cloud (GCP) et avez une experience confirmée en kafka Vous connaissez Google Cloud Platform et K8S Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Une automatisation de tous les tests est le graal que vous souhaitez atteindre pour dormir la nuit et le week-end.

Freelance

Mission freelance
POT8636-Un Data Engineer DBT sur Paris

Almatek
Publiée le
DBT

6 mois
290-430 €
Paris, France

Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris.

Freelance

Mission freelance
Data Steward

TEOLIA CONSULTING
Publiée le
SQL

12 mois
400-590 €
Paris, France

Contexte : Au sein du pôle Data Gouvernance , vous interviendrez sur le data domaine “comportements utilisateurs” (visites, vidéos vues, etc.) pour améliorer la qualité, la conformité et l’efficacité de la mise à disposition des données aux équipes métiers. Vos principales missions : Mettre en œuvre la stratégie de gouvernance data Recueillir et suivre les règles de qualité des données Coordonner les contrôles qualité et plans de remédiation Assurer la traçabilité et la transparence des transformations de données Gérer les métadonnées et le glossaire métier Animer le remplissage du glossaire avec les Data Owners Veiller à la cohérence entre dictionnaire de données et glossaire Faire respecter les règles et politiques de gouvernance Contribuer à la politique d’accès et à la conformité RGPD Garantir la sécurité et la conformité des données Jouer un rôle de facilitateur entre les acteurs métiers, IT et RGPD Animer et fédérer autour de la gouvernance data Expliquer et promouvoir les bonnes pratiques de gouvernance Soutenir les Data Owners dans la mise en œuvre des standards Identifier les données sensibles et assurer leur mise sous contrôle

Freelance
CDI

Offre d'emploi
Développeur back end (java/ KAFKA/GCP)

AVA2I
Publiée le
Apache Kafka
CI/CD
Google Cloud Platform (GCP)

3 ans
40k-60k €
400-550 €
Lille, Hauts-de-France

GCP Confirmé KafkaConfirmé AgileExpert java Expert Spring / Spring Boot Expert REST Expert PostgreSQL Skills & Qualifications + 7 années d'expérience, en tant que backend Java Une expérience sur des infrastructures cloud native Connaissances des principes DDD, SOLID Solide expérience dans la mise en place d’une CI/CD intégration toutes les couches de test : Unit Testing, Acceptance Testing, Integration Testing, Load Testing Bonne connaissance des outils de monitoring et d’alerting La maîtrise des architectures distribuées et Event Driven A l'aise avec l'agilité et les groomings techniques Un profil Craftsmanship/Devops est un plus Environnement Technique Back-end: Java, Spring Boot Database : Postgresql Event & Messaging : Kafka Cloud: GCP, K8S Tooling: Git, Github Action, Docker Monitoring: Datadog Qualité : Junit 5, SonarCloud Front-end : React Js Méthodologie: Agile, Scrum

Freelance

Mission freelance
Data Lead Reconciliation - 8 ans d'expérience

Octopus Group
Publiée le
Data governance
ETL (Extract-transform-load)
Migration

6 mois
500-600 €
Bruxelles, Bruxelles-Capitale, Belgique

Octopus Group recherche un·e Data Lead Reconciliation - Secteur Assurance. Vous prendrez en charge les activités de rapprochement de bout en bout, incluant la validation de la migration, la mise en œuvre des pistes d'audit et l'assurance de l'exactitude des données, pour garantir l'harmonisation des systèmes client et internes. Expérience avérée en migration et rapprochement de données, dans le secteur de l'assurance et un leadership technique, ainsi qu'une expertise pratique des outils ETL, de SQL et de l'intégration de systèmes existants. Principales responsabilités : Diriger et coordonner les initiatives de réconciliation des données au sein d’équipes interfonctionnelles. Concevoir et mettre en œuvre des cadres de réconciliation pour valider des migrations de données complexes. Effectuer une analyse des causes profondes des incohérences de données et assurer la résolution sur tous les systèmes. Collaborer avec les parties prenantes du client pour aligner les exigences commerciales sur la logique de réconciliation. Guider les équipes (sur site et nearshore) dans la mise en œuvre technique des contrôles de qualité des données. Créez de la documentation, des tableaux de bord et des rapports pour les pistes d’audit et les processus de rapprochement. Soutenir la validation post-migration et l'amélioration continue des flux de travail d'intégrité des données. Valider et mettre en œuvre les règles et les mappages de transformation des données

Freelance

Mission freelance
Data Engineer / Développeur Dataiku

Deodis
Publiée le
Dataiku
SQL

12 mois
360-400 €
Bordeaux, Nouvelle-Aquitaine

Actuellement en phase d’amélioration de la qualité des données, l’équipe projet souhaite renforcer ponctuellement son dispositif de développement Dataiku. En collaboration étroite avec l’équipe en place, l’objectif est de préparer les données (selon les règles Métier définies) et développer l’ensemble des étapes permettant l’intégration de ces données dans le projet existant. - Montée en compétences : o Appropriation du contexte fonctionnel o Appropriation des bonnes pratiques de développements o Compréhension et maitrise du projet Dataiku existant - Développement Dataiku - Recette des développements réalisées o Tests unitaires o Tests d’intégration dans le projet existant, en lien avec le référent - Documentation du data dictionnaire - Documentation des spécifications techniques et fonctionnelles

Freelance
CDI

Offre d'emploi
Expertise Denodo

KLETA
Publiée le
Big Data
Virtualisation

2 ans
Paris, France

Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.

2013 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous