L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 241 résultats.
Mission freelance
Analyste DATA - Bordeaux
Sapiens Group
Publiée le
Big Data
Data visualisation
PowerBI
1 an
400-450 €
Bordeaux, Nouvelle-Aquitaine
Une organisation de gestion de mutuelle/retraite, dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée sur le site de Gradignan (33) près de Bordeaux. Objet de la prestation Le présent marché spécifique a pour objet le renforcement de l'équipe. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ. Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel. Prestation attendue Mission de deux ans, télétravail 2 jours par semaine Prestation d'analyse DATA et DATASCIENCE
Offre premium
Offre d'emploi
Chef de projet DATA
UCASE CONSULTING
Publiée le
JIRA
Kubernetes
Python
1 an
40k-60k €
400-620 €
Île-de-France, France
Chef de Projet Data (H/F) Bonjour tous 😀 Nous recherchons un Chef de Projet Data charge du pilotage de projets data, depuis la phase de cadrage et d’estimation jusqu’à la mise en production et l’exploitation de traitements de données complexes. L’intervention pourra couvrir plusieurs projets en parallèle en fonction des priorités du programme data. Missions : Pilotage de projets data de bout en bout Coordination des équipes techniques et métiers Validation des spécifications fonctionnelles Suivi des livrables (qualité / coûts / délais) Gestion du backlog et des user stories Pilotage des phases de tests et de recette Suivi des mises en production et de l’exploitation Communication avec les parties prenantes Environnement Agile / Scrum (sprints de 2 semaines). Must-have Connaissance CI/CD Connaissance Kubernetes Connaissance Python Connaissance PostgreSQL Expérience en pilotage de projets data Expérience en environnement agile / Scrum Expérience de coordination d’équipes data ou IT Maîtrise de JIRA et Confluence Bonne compréhension des data pipelines / data platforms Expérience en recette et qualité des livrables Expérience en migration ou intégration de données (fort plus) Nice-to-have Certification Scrum Master Expérience Data Lake / Data Warehouse Expérience en run / exploitation applicative Stack / environnement JIRA Confluence Python PostgreSQL Gitlab / Jenkins Kubernetes Séniorité attendue : 👉 environ 6–10 ans d’expérience
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Mission freelance
DATA SCIENTIST - sénior
Geniem
Publiée le
Data science
Dataiku
Machine Learning
6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Mission freelance
Consultant Senior Process Data / Process Management (Anglais courant) H/F
HC
Publiée le
Conduite du changement
Data governance
Data management
6 mois
680 €
Charenton-le-Pont, Île-de-France
La mission consiste à : Définir une stratégie process data Identifier et formaliser les process critiques Structurer une cartographie cohérente et maintenable Définir une stratégie de maintenance des process dans le temps Profil recherché : Profil senior , capable de : Parler à des niveaux senior management Porter des sujets de change management Embarquer des communautés hétérogènes Compétences clés : Expertise avérée en cartographie de process Définition et gouvernance de process critiques Mise en place de frameworks de process management Forte capacité de pédagogie et d’accompagnement au changement Natixis est ouverte à des profils hors banque , notamment : • Industrie • Aéronautique • Automobile perçus comme plus matures sur la rigueur et l’industrialisation des process. Outils • iGrafx utilisé aujourd’hui • Étude d’autres outils (Harris, etc.) • Pas de dépendance forte à un outil Enjeux humains et organisationnels • Existant côté OPS, mais adhésion inégale • Process owners nommés, mais engagement variable • Difficulté à embarquer : Le Front (peu sensible aux sujets process) Les Risques (contraints par le réglementaire mais peu structurés) Le rôle inclut fortement : L’animation de communautés (≈ 20 personnes) La démonstration de valeur concrète La création de liens entre OPS, Front et Risques
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Mission freelance
Mission Freelance – Security Expert Data & AI (H/F)
Comet
Publiée le
Big Data
Cybersécurité
1 an
400-580 €
Île-de-France, France
Dans le cadre d’un programme stratégique Data & AI à forte visibilité, nous recherchons un Expert Cybersécurité Data & Intelligence Artificielle pour accompagner la sécurisation de services et plateformes IA à l’échelle d’un grand groupe international. Contexte de la mission Vous intervenez au sein d’équipes Data & Analytics afin de garantir la sécurité des plateformes, services et usages IA , en lien étroit avec les équipes IT, sécurité et métiers. Missions principales Intégration de la sécurité dès la conception des projets Data & AI (security by design) Accompagnement des équipes projets et des responsables sécurité métiers Pilotage de la conformité sécurité (audits, plans de remédiation, reporting) Gestion et contribution aux incidents de cybersécurité Définition et déploiement de standards, règles et baselines sécurité Sensibilisation et montée en compétence des parties prenantes
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
Data Engineer Experimenté/Senior
Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi
9 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
Offre d'emploi
Ingénieur Data Senior
IT-newvision sas
Publiée le
Microsoft Power BI
Python
SQL
40k-65k €
Paris, France
Contexte du poste Dans un environnement métier exigeant, vous interviendrez sur des sujets Data à forte valeur ajoutée , mêlant analyse de données, ingénierie data et pilotage de projet . Vous jouerez un rôle clé d’interface entre les équipes techniques, les métiers et les prestataires. Missions principalesData / Technique Analyse et exploration de bases de données complexes Travail sur un ERP Recherche et compréhension du modèle de données Exploration des tables Extraction et structuration des données Recherches approfondies en base, compréhension fine des données Requêtage avancé Gestion de projet & coordination Pilotage de sujets Data dans un contexte d’entreprise nécessitant d’aller chercher l’information Informations Complémentaires Rythme : 3 jours sur site / 2 jours de télétravail Localisation : Mission stratégique à 1h environ de Paris Organisation : Logistique de déplacement (train, hôtel) entièrement gérée et financée par IT-NewVision Cohésion : Trajets et séjours sur site effectués en équipe
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
HOXTON PARTNERS
Publiée le
Data management
3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
Offre d'emploi
Data Engineer Sénior DBT / SQL
Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
Offre d'emploi
Architecte Data Azure / Databricks
xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Offre d'emploi
Data Analyste (H-F) à Niort
K-Lagan
Publiée le
Big Data
1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IR - Prelevement sociaux
- Freelances : comment vous gérez votre admin au quotidien ?
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
4241 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois