Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 878 résultats.
CDI

Offre d'emploi
Data Engineer Sénior DBT / SQL

Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
CDI

Offre d'emploi
Data / IA Engineer (H/F)

CITECH
Publiée le
Docker
IA
Kubernetes

60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Développeur Talend Confirmé – Data Engineer (H/F)

Pickmeup
Publiée le
ETL (Extract-transform-load)
Talend

1 an
400-480 €
Châtillon, Île-de-France
La mission consiste à développer de nouveaux pipelines d’intégration applicative et à assurer le maintien en condition opérationnelle des pipelines existants au sein de la plateforme Data. Missions principalesDéveloppement et intégration de données Développer et maintenir des pipelines d’intégration de données Mettre en œuvre les nouveaux besoins métiers : modélisation paramétrage développement tests Intégrer et transformer des données provenant de sources multiples Garantir la qualité et la fiabilité des flux de données Maintien en condition opérationnelle Assurer le support et la maintenance des pipelines existants Superviser les flux de données et corriger les anomalies Contribuer à la stabilité et à la performance des plateformes Gouvernance et bonnes pratiques Contribuer à la gouvernance des plateformes Data Veiller au respect des processus, normes et standards Participer à la définition et à l’amélioration des bonnes pratiques : développement architecture gestion de configuration Collaboration projet Accompagner les équipes projets (SI, Data, métiers) Participer aux échanges techniques et au partage de bonnes pratiques au sein de l’équipe Responsabilités Data Engineering Cartographier et documenter les sources de données Concevoir des solutions permettant de traiter des volumes importants de données Structurer et organiser les bases de données Contribuer à la gestion des référentiels de données Vérifier la qualité et la cohérence des données Participer aux évolutions de la plateforme Data / Data Lake Livrables attendus Développements et projets Talend Documentation technique des développements Dossiers d’architecture ou cadres techniques Cartographie des flux et des données Éléments contribuant à la qualité et à la gouvernance de la donnée
CDI

Offre d'emploi
Chef de Projet - Data & IA (F/H)

CELAD
Publiée le

50k-55k €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Vous souhaitez contribuer à des projets stratégiques à fort impact autour de la Data et de l’IA ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un grand acteur du secteur bancaire, nous recherchons un.e Chef de Projet Data & IA expérimenté pour accompagner la montée en puissance des projets stratégiques autour de la Data et de l’Intelligence Artificielle Vous intégrerez un service Data Management & Intelligence Artificielle récemment structuré, au cœur de la transformation Data & IA de l’organisation Le poste est basé en région grenobloise, avec des déplacements ponctuels en région et en Île-de-France
CDD
CDI
Freelance

Offre d'emploi
Data Analyst Paris (H/F)

TimTek
Publiée le
Microstrategy
PowerBI

1 an
Paris, France
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Paris. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Freelance

Mission freelance
Data Analyst Huwise H/F

OUICODING
Publiée le

1 mois
420-580 €
Paris, Île-de-France
Mission : Assurer l'administration, l'alimentation, les évolutions et le run des chaînes de publication (open/partagé), en garantissant qualité, traçabilité et conformité, et en maintenant les visualisations associées. Responsabilités principales : -Recueil & analyse : cadrage des besoins de publication, compréhension des indicateurs et règles de gestion, formalisation des transformations. -Préparation des données : requêtage, transformations, contrôles qualité, automatisation des traitements (SQL/Python). -Publication : mise à jour des jeux de données sur la plateforme de diffusion, gestion des métadonnées, cycles de publication. -Dataviz : maintenance et évolution des visualisations (tableaux de bord, cartes/indicateurs selon le périmètre). -Run & incidents : diagnostic des anomalies, correction, amélioration des chaînes, documentation et tests. -Dev collaboratif : Git, revues, CI/CD, livraison en environnements dev/préprod/prod. Stack / environnement (indicatif) : SQL, Python, Snowflake (ou équivalent DWH), outils de publication Open Data (type OpenDataSoft ou équivalent), Git/GitLab, CI/CD (Azure DevOps ou équivalent), Power BI (selon périmètre).
Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance

Mission freelance
Chef de Projet - Data & IA (F/H)

CELAD
Publiée le

1 an
500-520 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Vous souhaitez contribuer à des projets stratégiques à fort impact autour de la Data et de l’IA ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un grand acteur du secteur bancaire, nous recherchons un.e Chef de Projet Data & IA expérimenté pour accompagner la montée en puissance des projets stratégiques autour de la Data et de l’Intelligence Artificielle Vous intégrerez un service Data Management & Intelligence Artificielle récemment structuré, au cœur de la transformation Data & IA de l’organisation Le poste est basé en région grenobloise, avec des déplacements ponctuels en région et en Île-de-France
Freelance
CDI

Offre d'emploi
Consultant.e Data Talend F/H

ADDIXWARE
Publiée le
Qlik
Talend

1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Freelance

Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt

Almatek
Publiée le
Data analysis

4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
CDI

Offre d'emploi
Data Analyst PMO F/H - Alternance

█ █ █ █ █ █ █
Publiée le
JIRA
Microsoft Excel

Bois-Colombes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant DATA/ BI

HAYS France
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI

5 mois
Obernai, Grand Est
Nous recherchons un Consultant Data / BI capable d’intervenir sur un environnement mêlant Enterprise Architecture , Azure Data Platform , et Power BI . L’objectif : adapter un écosystème LeanIX + Data Platform à une nouvelle organisation interne, tout en assurant la mise à jour des flux, du modèle de données et des rapports analytiques. Vos responsabilités Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : LeanIX Adapter la configuration LeanIX pour refléter la nouvelle organisation. Collaborer avec l’équipe Enterprise Architecture. Azure Data Platform Ajuster et optimiser les flux de données (Azure Data Factory). Adapter le modèle de données dans Azure Synapse Dedicated SQL Pool . Maintenir et faire évoluer une Azure Function en Python . Participer à des déploiements via Bicep . Power BI Mettre à jour les semantic models. Ajuster et optimiser les rapports existants. Documentation & collaboration Produire la documentation en anglais. Participer à une évaluation préliminaire d’ ARIS comme alternative potentielle.
CDI

Offre d'emploi
Business Analyst

█ █ █ █ █ █ █
Publiée le
Big Data
COBOL
JIRA

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur OPS Linux / Virtualisation / Stockage (H/F)

OCSI
Publiée le
Linux
NAS
Red Hat

3 ans
40k-60k €
400-600 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes infrastructures, notre client recherche un Ingénieur OPS spécialisé en Linux, stockage et virtualisation pour intervenir sur des environnements On-Premise à forte volumétrie. Vous intégrerez une équipe en charge des services d’infrastructure autour des environnements Managed Compute, Development & Services et Cloud . Au sein de cette équipe, vous participerez au maintien en condition opérationnelle des plateformes et à la gestion des infrastructures critiques de l’entreprise. Missions Au sein de l’équipe Infrastructure, vos principales missions seront : Assurer le maintien en condition opérationnelle (MCO) des infrastructures Linux, stockage et virtualisation Être le référent opérationnel sur votre périmètre (gestion des priorités, suivi du RUN, compréhension des besoins utilisateurs) Administrer et maintenir les solutions de stockage entreprise (SAN et NAS) Assurer l’exploitation et l’administration des environnements VMware vSphere Réaliser le déploiement et la configuration de serveurs Linux et de machines virtuelles Participer à l’ automatisation et au scripting des tâches d’exploitation Contribuer à l’amélioration continue des plateformes et des processus d’exploitation Travailler en collaboration avec les différentes équipes techniques et accompagner les utilisateurs

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6878 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous