Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 733 résultats.
Freelance

Mission freelance
Tech Lead Senior (Applications Marketing & Data)

Sapiens Group
Publiée le
BigQuery
Google Cloud Platform (GCP)

12 mois
500-540 €
Île-de-France, France
Nous recherchons un Tech Lead Senior pour piloter et faire évoluer plusieurs applications stratégiques liées à la performance des assets média. Vous évoluerez dans une équipe pluridisciplinaire composée de profils variés (Développeurs Full Stack, Data Scientists, Data Engineers, Product Owner, QA) dans un environnement dynamique et orienté data. L’une des applications principales vise à offrir une vision complète de la performance et de l’optimisation des assets média , couvrant l’ensemble de la chaîne de valeur : de la stratégie globale jusqu’à l’activation locale . Missions principales Leadership technique Encadrer et superviser les ressources techniques de l’équipe. Assurer le rôle de référent technique et accompagner les développeurs dans les choix technologiques et les bonnes pratiques. Architecture & conception Concevoir et définir les architectures et solutions techniques des applications. Garantir la robustesse, la scalabilité et la maintenabilité des systèmes. Développement & intégration IA Piloter et gérer des applications intégrant des briques d’intelligence artificielle : gestion de la code base data pipelines optimisation des modèles déploiement et supervision Intervenir sur l’ensemble de la stack : Front-end, Back-end, Cloud Infrastructure et DevOps . Data & Cloud Exploiter et intégrer les données issues du datalake du Groupe (BigQuery) . Maîtriser l’écosystème Google Cloud Platform (GCP) et contribuer aux bonnes pratiques d’architecture cloud. Collaboration transverse Agir comme point de contact technique auprès des équipes transverses : Cybersécurité Data Privacy Enterprise Architecture Garantir la conformité des solutions aux standards du groupe. Résolution de problématiques techniques Investiguer et résoudre des problématiques techniques complexes : debugging avancé optimisation des performances migration d’infrastructures amélioration continue des systèmes. Profil recherché Expérience confirmée en lead technique / Tech Lead / Architecte . Solides compétences en développement full stack et architectures cloud . Expérience sur Google Cloud Platform (GCP) et BigQuery . Bonne compréhension des architectures data et IA/ML pipelines . Capacité à travailler dans un environnement transverse et collaboratif . Forte aptitude à analyser, diagnostiquer et résoudre des problèmes techniques complexes .
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
CDI

Offre d'emploi
Data Analyst douane (H/F)

█ █ █ █ █ █ █
Publiée le

38k-45k €
Vélizy-Villacoublay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
BA/Data analyst 

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Shell

5 mois
350 €
Val-de-Marne, France
BA/Data analyst pour mon client Entité : Banque Site : Val de Marne; 2 jours/semaine obligatoire sur site Prix d’achat max : 355 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions , gère les systèmes d’information du Réseau Private Banking . La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Le Bénéficiaire , en charge de l'application/entrepôt décisionnel CMW souhaite une expertise pour sa Feature Team , notamment sur le sujet NDOD ( Nouvelle Définition du Défaut ) mis en place depuis quelques années mais générateur de beaucoup d'analyses et/ou évolutions ==> sujet "sensible" sur lequel les demandes d'analyses arrivent au fil de l’eau, d'où capacité à pouvoir gérer une certaine pression. À ce titre, le bénéficiaire souhaite bénéficier de l'expertise du prestataire en termes de Data Analysis. Dans ce cadre, la prestation consiste à contribuer à/au(x): Compréhension des besoins métier Spécifications fonctionnelles générales et détaillées dans le respect des règles d'urbanisme (DCO, CFG, CTG) Contribution aux ateliers avec les Métiers Estimation des charges et délais des évolutions du périmètre Assistance aux comité opérationnels Support à l'entité de développement situées à Bangalore dans la mise en oeuvre Support aux Métiers, requêtage et extractions ponctuelles, réponse aux exigences réglementaires. Mise en place du plan de qualification et sa validation Profil : BA/Data analyst pour la Société Générale Nombre d’années d’expérience : + 8 ans Expérience techniques requises Expertise de l'ETL Datastage fortement recommandée (min 2 ans) Maitrise du SQL indispensable (10 ans) Expertise en Shell, sur l'ordonnanceur CTRL M, et sur SNOWFLAKE seraient les bienvenues. Notions d'Agilité Environnement anglophone Modélisation en étoile (5ans) Banque de Détail / Risque de Crédit (8 ans)
CDI

Offre d'emploi
Data Manager H/F

WINSEARCH
Publiée le

70k-90k €
Laval, Pays de la Loire
Votre mission : Faire de la donnée un levier direct de performance commerciale et de création de valeur métier pour l'ensemble du réseau. Structurer, fiabiliser et interconnecter le patrimoine informationnel de TYLS afin de passer d'une donnée subie à une donnée déclencheuse de business. Architecte du patrimoine Data du réseau Cartographier l'ensemble des flux et sources de données (GI / Facturation / Social / CRM / BI).Définir les standards de structuration, de qualité et de gouvernance.Sécuriser et uniformiser les référentiels.Construire le datalake interne du réseau.Déployer un socle BI robuste (Power BI) pour piloter la performance. 2. Accélérateur de performance commerciale Transformer la donnée en produits data activables : triggers, scoring, segmentation intelligente.Alimenter les équipes commerciales en insights actionnables.Déployer des dashboards réseau orientés business et productivité.Mesurer et piloter la performance par cabinet, par offre, par segment. 3. Chef d'orchestre des briques SI stratégiques Piloter la cohérence et l'interconnexion des outils structurants.Moderniser la brique GI / Facturation, socle de qualité des données internes.Interconnecter le SI Social (SILAE) avec la comptabilité et le CRM.Positionner HubSpot comme référentiel client unique. 4. Bâtisseur d'équipe et leader transverse Créer et structurer la fonction Data au sein du réseau.Recruter et manager un Data Analyst / BI Expert.Définir les priorités, roadmaps et rituels de pilotage.Accompagner le changement auprès des équipes métiers et commerciales. 5. Anticipation des croissances externes Intégrer l'impact des opérations de croissance externe en cours.Anticiper l'augmentation des volumes de flux et la complexification des systèmes.Définir une architecture scalable.Sécuriser les migrations et harmonisations post-acquisition. Responsabilités clés Définition de la roadmap Data & BI du réseau.Construction du datalake et des flux d'interconnexion.Gouvernance et qualité des données.Déploiement des outils BI et indicateurs COMEX.Pilotage des projets transverses SI/Data.Management d'équipe.Reporting direct Direction Générale / COMEX.
CDI

Offre d'emploi
Data Analyst (h/f)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Vélizy-Villacoublay, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Layer - Business Analysis

Net technologie
Publiée le
Big Data

6 mois
Paris, France
Au sein du département informatique du client en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de type Business Analyst pour contribuer sur un projet central autour de la donnée. Objectifs de la mission: - Formalisation des règles de gestion pour les développeurs et les accompagner dans leur implémentation - Formalisation des cahiers de tests : contribuer à l'approche TDD/BDD - Spécification de l'intégration de nouvelles sources de données : opérations et référentiel - Etudes et analyses du backlog d'équipe - Expertise en mode Agile
Freelance
CDD

Offre d'emploi
Consultant Data Senior (Snowflake / MicroStrategy)

Digimatch
Publiée le
Confluence
Data quality
ETL (Extract-transform-load)

6 mois
60k €
550 €
Île-de-France, France
Dans le cadre d’un projet stratégique de décommissionnement de systèmes legacy, nous recherchons un consultant Data senior, à la fois fonctionnel et technique, pour accompagner une migration de données et la mise en place de reporting. Contexte de la mission Projet de décommissioning d’une base de données / legacy system risk Migration des données vers un environnement Snowflake Refonte / maintien du reporting sous MicroStrategy Environnement décisionnel à forts enjeux métiers Missions principales Analyse de l’existant (legacy systems, flux, risques) Cadrage fonctionnel de la migration de données Pilotage et/ou réalisation des migrations (ETL, contrôles, qualité des données) Contribution à la mise en place et à l’optimisation du reporting MicroStrategy Interaction avec les équipes métiers et IT Accompagnement au décommissionnement des systèmes legacy
Freelance
CDI

Offre d'emploi
Chef de Projet WMS/Data

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
Freelance

Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO

12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Alternance

Offre d'alternance
Junior Data Scientist - Apprenticeship (f/m/d)

█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Git

Village d'Entreprises, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer Senior – DBT

adbi
Publiée le
DBT

1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
CDI

Offre d'emploi
Data / IA Engineer (H/F)

CITECH
Publiée le
Docker
IA
Kubernetes

60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
1733 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous