L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 764 résultats.
Offre d'emploi
Architecte Expérimenté (Infra, Cloud, DevOps, Digital ou Data) H/F
Publiée le
75k-85k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : ekr3f5u0ly
Mission freelance
développeur Cloud & IA
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Offre d'emploi
Data Engineer (15)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Mission freelance
SAP Consultant Data Migration (F/H)
Publiée le
SAP
6 mois
La Défense, Île-de-France
Télétravail partiel
Objectif : Renforcer l’équipe avec un expert SAP Data Migration (environ 10 personnes dans l’équipe mais pas d’expert SAP) Sécuriser les activités de reprise de données jusqu’à la mise en production Principales responsabilités : Ajustement des spécifications existantes suite au Mock 1 et en fonction du Design Contribution au mapping des données et à l’analyse des objets SAP Identification et alerte sur les dépendances fortes entre objets / projets Préparation des chargements, corrections et itérations suite au Mock 2 Support aux phases Pré-Production / Production Rôle de référent SAP / Master Data sur son périmètre Coordination étroite avec les équipes SAP et Salesforce
Mission freelance
Mission SAP Master Data (SAP MDM / MDG)
Publiée le
Master Data Management (MDM)
SAP S/4HANA
6 mois
550-630 €
Saint-Cloud, Île-de-France
Télétravail partiel
Dans le cadre de l’optimisation et de la fiabilisation de son système d’information SAP, le client souhaite s’appuyer sur une prestation externe spécialisée en gestion des données de référence (Master Data) . Le prestataire intervient pour définir, structurer et sécuriser la gouvernance des données de référence SAP, garantir leur qualité et accompagner les équipes métiers dans l’utilisation et la maintenance des données clés du système. Responsabilités principales : Analyse de l’existant et évaluation de la qualité des données de référence SAP Définition et mise en œuvre des règles de gouvernance des Master Data Harmonisation et standardisation des données (clients, fournisseurs, articles, nomenclatures, etc.) Paramétrage et gestion des objets de données de référence dans SAP S/4HANA Mise en place de processus de création, modification et validation des données Support aux équipes métiers et coordination avec les équipes fonctionnelles et techniques Contribution aux projets transverses (migration, déploiement, roll-out, MDM, S/4HANA) Documentation des procédures et des règles de gestion des données Livrables attendus : Cartographie des données de référence SAP Règles de gouvernance et de qualité des Master Data Procédures de gestion et de contrôle des données Données de référence conformes aux standards définis Environnement : SAP S/4HANA Modules Finance et Logistique selon périmètre Collaboration étroite avec les équipes métiers, IT et data
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Mission freelance
consultant SAP Data Migration
Publiée le
Migration
SAP
12 mois
600-750 €
Paris, France
Télétravail partiel
Hanson Regan recherche un consultant SAP Data Migration pour une mission freelance de 6 mois renouvelable, basée à Paris. Exigences AMOA pour la migration de données SAP : • Profil requis : Plus de 5 ans d’expérience en migration SAP, avec une expertise sur toutes les phases de migration, les modules Finance et plus particulièrement Supply (SD/PP/WM/MM/QM). • Compétences clés : o Migration de données – projets multiples au sein de SAP o Connaissance de plusieurs modules SAP o Excellentes compétences communicationnelles pour soutenir les recommandations et les interactions avec les équipes • Organisation : 3 à 4 jours sur site au sud de Paris, 1 à 2 jours à distance (TTV) • Date de début : Dès que possible Pour répondre aux besoins de nos clients, nous acceptons uniquement les candidatures de freelances travaillant au sein de leur propre entreprise. Nous rémunérons également les recommandations complètes si vous n’êtes pas disponible ou si vous connaissez quelqu’un qui pourrait être intéressé.
Offre d'emploi
Chargé de Pilotage SI / PMO Confirmé – Pilotage d’Équipe Delivery -Saint Herblain(H/F)
Publiée le
Git
Java
JIRA
1 an
Saint-Herblain, Pays de la Loire
🎯 Contexte & Mission Dans le cadre d’un projet stratégique, nous recherchons un Chargé de Pilotage SI (PMO) Confirmé capable de piloter une équipe de delivery, coordonner les développements applicatifs et assurer le suivi opérationnel des projets IT. Vous serez le point central entre les équipes techniques, les équipes métiers et l’infrastructure, avec un rôle clé dans la planification, le reporting, le pilotage des charges et la qualité des livrables. 🛠️ Livrables attendus Planning de charge détaillé Board Jira structuré et régulièrement mis à jour 🧠 Compétences techniques recherchées Excel : Confirmé – Important Jira : Confirmé – Souhaitable Environnement outils : Redmine, Sciforma, Excel, PowerPoint Environnement technique : Java, Spring, Hibernate, Maven, ReactJS DevOps : Git, Nexus, Jenkins 📌 Description de la mission1. Pilotage de projet Agir comme interlocuteur principal du chef de projet métier Assurer un reporting régulier et rigoureux Identifier les risques, les dépendances et les interactions Animer les cérémonies Agile (daily, démo, etc.) Être force de proposition pour assurer le respect du planning et la qualité des livrables 2. Pilotage des développements Calculer la capacité de charge de l’équipe de développement Estimer la charge des différentes tâches Suivre le reste à faire et anticiper les dérives 3. Pilotage des chantiers infrastructure (hébergement) Coordonner les actions avec l’équipe Infrastructure Gérer le planning de réalisation et les validations techniques 4. Activités complémentaires Organiser et participer aux audits externes Planifier et suivre les tests de performance Assurer le support et l’assistance jusqu’à la clôture des opérations critiques (dont opérations de vote) 📊 Indicateurs de performance Respect des délais de livraison des versions applicatives Fiabilité et mise à jour des tableaux de bord Qualité des mises en production
Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand
Publiée le
Google Cloud Platform (GCP)
6 mois
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Mission freelance
PRODUCT OWNER DATA PRODUIT
Publiée le
Snowflake
12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Offre d'emploi
Ingénieur Data SQL H/F
Publiée le
Administration réseaux
Administration système
Supervision
67150, Erstein, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Ingénieur Data SQL H/F et vous présentons les points clés du poste : Poste en CDI Basé à Erstein Secteur du commerce de détails et de gros Les conditions : Rémunération selon le profil et les expériences Mode de travail : sur site ; Télétravail possible 1j/semaine après la période d'essai Période d'essai de 3 mois Les missions : Au sein du service Développement de la DSI, l'équipe Data a en charge la conception, la réalisation et le maintien en condition opérationnelle des principaux flux d'échanges de données inter-applicatifs. Pour accompagner son développement, l'entreprise cherche à renforcer l'équipe par une mission de prestation en régie sur site. Les attendus sont les suivants : La conception et l’alimentation de modèles de données dans la base de données pivot de l’entreprise (Staging DB) : Cluster MSQ SQL Server Accompagner l'entreprise dans la migration vers SQL server 2025 : déploiement d'un nouveau Cluser SQL Server 2025 et implémentation de la recherche vectorielle dans les applications existantes Mettre en place des flux d'échanges de données entre les différentes systèmes : ETL SSIS ave possible passage sur un ETL Opensource de type Polars / Pandas sous Airflow Réaliser des cahiers de charges et d'études de faisabilité Accompagner les métier s sur les choix d'architecture de données (choix des données pivots, format approprié des données, etc.) Garantir la qualité des données autant sur le plan technique que métier Intervenir ponctuellement sur le Datawarehouse : Base de données Oracle avec Scripting Bash
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Offre d'emploi
Data Analyst spécialisé données RH & qualité de données
Publiée le
Azure
Data quality
Google Cloud Platform (GCP)
42k-60k €
Paris, France
Télétravail partiel
📢 Recrutement CDI – Data Analyst spécialisé données RH & qualité de données Nous recrutons un Data Analyst en CDI pour intervenir sur des sujets de fiabilisation et structuration de données RH et identités au sein d’un environnement data transverse et stratégique. 🎯 Votre rôle Vous interviendrez sur des données collaborateurs (internes, externes, organisations, comptes) afin d’en garantir la cohérence, la fiabilité et l’exploitabilité. Vous travaillerez en lien avec des équipes data, RH et sécurité sur des flux multi-sources. 🛠 Vos missions principales Analyser et comprendre des données issues de plusieurs systèmes (notamment RH) Détecter les incohérences, doublons et données manquantes Mettre en place des règles de contrôle et d’amélioration de la qualité des données Participer à la structuration d’un référentiel de données fiable Produire des indicateurs et tableaux de bord de suivi (qualité, complétude, fiabilité) Documenter les jeux de données et les règles associées
Mission freelance
Consultant Expert Data
Publiée le
CoreData
3 mois
400-650 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un consultant expert Data. Le contexte : Pour accompagner le client dans sa transformation Data Driven, nous recherchons un consultant expérimenté capable de structurer & piloter une démarche orientée Data Products. Missions principales : - Définir et mettre en place une gouvernance des données (processus, rôles, outils). - Accompagner le client dans la structuration d’une stratégie Data Driven. - Concevoir et promouvoir une approche orientée Data Products pour maximiser la valeur métier. - Conseiller sur les bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
2764 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois