Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 705 résultats.
Freelance

Mission freelance
ingé. Big Data

Publiée le
Big Data
Red Hat Linux

3 mois
Toulouse, Occitanie
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) ingé. BIG DATA . Skills : Big Data - Red Hat Linux - anglais Mission : -gérer et maintenir les plateformes de données massives -optimiser les performances des systèmes de données -assurer la qualité et la sécurité des données -collaborer avec les équipes de développement pour intégrer les solutions de données -surveiller et maintenir les systèmes de données en production -analyser les besoins en données et proposer des solutions adaptées N'hésitez pas à revenir vers moi pour des informations complémentaires.
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU

Publiée le
Azure
Databricks
Dataiku

3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Freelance

Mission freelance
Expert Réseau LAN / WAN / WIFI (N3)-ile de France (H/F)

Publiée le
LAN
WAN (Wide Area Network)
WIFI

1 an
400-520 €
Île-de-France, France
Dans le cadre d’une mission stratégique au sein d’une grande direction IT, nous recherchons un consultant N3 LAN – WAN – WIFI ayant une solide expertise sur les infrastructures réseau de grande envergure. 🎯 Objectif de la mission Garantir la gestion, la maintenance et l’évolution des solutions LAN / WAN / WIFI, intervenir sur l’incidentologie avancée, piloter des projets techniques, et assurer la coordination avec les équipes locales ainsi que le partenaire opérant le support N1/N2. 🛠 Compétences techniques recherchées ✔ LAN & WIFI : Cisco, Aruba, Juniper (CCNA/CCNP/WLE) ✔ Authentification : Cisco ISE ✔ Firewalls : Palo Alto (requis) – Fortinet (apprécié) ✔ Outils : Cisco Prime Infrastructure, Airwave (plus) ✔ RF : Spectrum / Survey WIFI avec Ekahau ✔ Réseaux : DHCP, DNS, DNA, SDA, Fabric ✔ Méthodes : Agile , ITIL ✔ Anglais technique (impératif) 📌 Responsabilités principales 🔹 Gestion et résolution d’incidents LAN / WAN / WIFI (N3) 🔹 Analyse avancée & troubleshooting 🔹 Coordination avec mainteneur & équipes locales 🔹 Incident management et suivi des prestataires 🔹 Projets réseau & évolutions d’infrastructure 🔹 Développement scripts / apps / outils internes 🔹 Rédaction des livrables techniques en anglais 🔹 Participation aux cérémonies Agile 📄 Livrables attendus 📘 Documents d’architecture 📘 Procédures opérationnelles 📘 Documents d’exploitation 📘 Comptes-rendus de réunions 📘 Supports utilisateur et supports équipes
Freelance
CDD

Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Business Analyst (F/H)

Publiée le
Business Analyst

35k-45k €
Montpellier, Occitanie
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑CDI (négociable) – 🏠 2 jours de télétravail par semaine – 📍 Montpellier (34) – 🛠 Expérience de 5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Pour renforcer nos équipes, nous recherchons un BA . 💻💼 🎯 Voici un aperçu détaillé de vos missions : Assurer l’interface entre les équipes métier (risques, crédits, sinistres, conformité, produits bancaires/assurance) et les équipes IT. Analyser les besoins, sécuriser la cohérence réglementaire et fonctionnelle, et accompagner la mise en œuvre des solutions SI. - Recueillir et analyser les besoins métiers : produits bancaires, gestion des comptes, moyens de paiement, assurance-vie, IARD, conformité (KYC/AML), - Modéliser les processus (UML, BPMN) et identifier les impacts SI, - Rédiger user stories, SFD/STF (règles de gestion, parcours clients, calculs métiers), - Accompagner les équipes de développement et clarifier les exigences fonctionnelles, - Préparer et exécuter les tests fonctionnels (flux bancaires, règles de souscription, tarification, sinistres), - Suivre incidents & évolutions (réglementation, sécurité, intégration systèmes cœur).
CDI

Offre d'emploi
Développeur Python, C# et Sql

Publiée le
API
DevOps
ERP

Paris, France
Télétravail partiel
Etudes & DéveloppementConcepteurSpécialités technologiquesDevops API Reporting ERP Assistance Technique (Facturation avec un taux journalier)CompétencesTechnologies et OutilsSQL (2 ans) C# (2 ans) Python (2 ans)Soft skillsAutonomieSecteurs d'activitésEnergieDans un premier temps: A) Travailler sur le développement/l'automatisation de nouveaux outils/services en Python/Sql/Devops B) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application jusqu'à leur autonomie 2) Dans un second temps: A) Développement de TNR sous Robot Framework Les livrables sont : - Documentation - Code source de qualité - Reporting d'activité
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Freelance
CDI

Offre d'emploi
MOA BI Entrepôt de donnée

Publiée le
Modélisation
SQL

1 an
Paris, France
Télétravail partiel
Les missions consisteront à : Prendre en charge du besoin des directions Métier Étudier les solutions en collaboration avec la maitrise d’ouvrage et le métier ; Rédiger les spécifications technico-fonctionnelles ; Réaliser la maintenance corrective et évolutive des traitements Datastage ; Assister les utilisateurs dans leur utilisation de l’entrepôt ; Réaliser les tests unitaires ; Contribuer aux choix techniques et fonctionnelles en respectant le cadre des outils et technologies disponibles et validés par la DTO Réaliser les estimations de coûts demandés en collaboration avec les chefs de projet/membres de l’équipe ; Contribuer activement à l’optimisation des applications Participer au dialogue avec les services utilisateurs Préparer les supports pour les comités L'ensemble des actions cité ci-dessus est à réaliser en collaboration avec les MOA et sous la direction du chef de projet.
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
Freelance
CDI

Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Freelance
CDI

Offre d'emploi
Business Analyst Risque des Opérations (H/F)

Publiée le
Finance
Gestion des risques
JIRA

3 ans
40k-50k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Business Analyst – Risque des Opérations pour rejoindre une équipe fonctionnelle au sein d’une grande institution financière. Vous serez l’interlocuteur clé entre les équipes métier et IT, avec un rôle axé sur l’analyse, la formalisation et l’optimisation des processus liés au risque opérationnel. Missions principales : Recueillir, analyser et formaliser les besoins métier liés au risque opérationnel. Participer à la conception et à l’optimisation des processus opérationnels. Assurer le suivi des projets et des évolutions via Jira . Rédiger des documents fonctionnels : spécifications, workflows, procédures, reporting. Collaborer avec les équipes opérationnelles, compliance et IT pour garantir la conformité et l’efficacité des processus. Contribuer à l’amélioration continue des pratiques de gestion du risque.
Freelance

Mission freelance
Data Analyst Power BI

Publiée le
Data analysis
Marketing
Microsoft Power BI

2 ans
400-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Analyser les données clients - Réaliser des analyses ad hoc pour répondre aux besoins des équipes - Mettre en place des tableaux de bord Power BI pour suivre les KPIs - Identifier des opportunités business via des analyses prédictives ou des insights data-driven Compétences demandées : - Expériences significatives en tant que data analyst, avec une spécialisation en marketing (loyalty, CRM, leads, media, generosity, pricing...) - Maitrise de Power BI - Bonne compréhension des enjeux marketing client - Anglais professionnel
Freelance
CDI

Offre d'emploi
Chef de projet Data IA (7 ans et plus)

Publiée le
Confluence
IA Générative
JIRA

3 ans
40k-65k €
450-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Data & IA et chef de projet, mission de caderage et conduite des projets d'intégration de l'intelligence artificielle (IA) et d'analyse de données pour améliorer les processus métiers et les performances de l'entreprise. Investiguation, description et analyse des processus existants pour identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 💡 La mission Consiste à : 1. Investigation et analyse des processus : Étudie et compréhension des processus métiers existants, identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 2. Analyse quantitative : Réalisation des analyses quantitatives pour évaluer les opportunités d'amélioration, en utilisant des données telles que les parcours clients, les données d'utilisation, etc. 3. Collaboration avec les data scientists : Travail avec les data scientists, étude, proposition et test des solutions internes ou externes pour améliorer les processus métiers. 4. Definir la vision et de la stratégie : Collaboration avec les experts métiers, les product owners, les développeurs et les data scientists pour définir la vision, la stratégie et l'approche de validation des projets (notamment l’approche de testings et les metrics associées). 5. Gestion de projet : Bonne traduction des besoins dans une roadmap claire, réaliste et acceptée par toutes les parties prenantes, et animation du projet pour garantir la qualité, les délais et les coûts. 6. Coordination et synergie : Coordination et la synergie entre les différents projets et les différentes équipes, en favorisant les échanges, les retours d'expérience et les bonnes pratiques
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
3705 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous