Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 015 résultats.
Mission freelance
Ingénieur Data Ops / Systèmes – Support & Exploitation Plateforme Data (Production / Run) (H/F)
TechOps SAS
Publiée le
Apache Airflow
Dremio
Grafana
12 mois
400-510 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme Data en production, nous recherchons un Ingénieur Système / Data Ops pour intégrer une équipe en charge du support et de l’exploitation d’un Data Hub et d’une plateforme de Data Virtualisation. Le poste consiste à assurer le bon fonctionnement des environnements de production, à superviser les traitements de données, à coordonner les incidents et à garantir la continuité de service. Vous interviendrez sur le monitoring quotidien des flux, la gestion des incidents et des problèmes, ainsi que sur la coordination des mises en production et des changements techniques. Vous serez également amené à analyser les incidents, proposer des actions correctives et préventives et participer à l’amélioration continue des processus et des outils de supervision.
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Mission freelance
Consultant Dataviz (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
Python
Tableau software
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant Dataviz (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant Dataviz (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
Mission freelance
QA Lead
Byrongroup
Publiée le
Data quality
ERP
KPI
1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Mission freelance
Consultant technique SAP Data Migration (Syniti ADM) - IDF
Signe +
Publiée le
SAP ABAP
6 mois
500-700 €
Paris, France
Dans le cadre d’un programme stratégique, notre client engage une transformation de son système d’information avec le déploiement de SAP S/4HANA . La mission s’inscrit dans un contexte à forts enjeux autour de la migration des données , élément clé pour garantir la continuité des opérations métiers et le respect du planning projet. En tant que Consultant SAP Data Migration, vous interviendrez sur : Le développement et paramétrage des objets de migration dans Syniti ADM La conception et maintenance des extracteurs SAP (ABAP, BAPI, LSMW, IDoc, OData) L’ analyse des structures de données sources (ECC) et cibles (S/4HANA) La définition des règles de transformation, mapping et validation des données Le support aux cycles de migration : mock runs, SIT, UAT, cutover La gestion des anomalies techniques et l’optimisation des performances de chargement La collaboration étroite avec les équipes fonctionnelles, techniques et data Informations complémentaires : Localisation : Île-de-France Présence sur site : Minimum 3 jours par semaine Démarrage : ASAP Habilitation Obligatoire
Offre d'emploi
Data ingénieur H/F
CONSORT GROUP
Publiée le
40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'alternance
12 month apprenticeship – data, artificial intelligence strategy & governance
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Analyst Lutte contre la fraude
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python
2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Mission freelance
Architecte Réseau et Sécurité Datacenter
PROPULSE IT
Publiée le
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Architecte Réseau et sécurité Datacenter. Le client souhaite renforcer son équipe par un architecte réseau et sécurité Datacenter, afin de l'assister dans la conception, mise en oeuvre et industrialisation réseau au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique sur les technologies réseau & sécurité Les compétences techniques attendues sont les suivantes : - Expertise réseaux LAN : Cisco Fabric Path/VxLAN, - Expérience Système : Redhat linux 8, Windwos 2019 - Expériences en études et déploiement de réseaux Telecom Les compétences fonctionnelles attendues sont les suivantes : - Conception des architectures et expertise - Rédaction/ Enrichissement de base de connaissances - Reporting de l'activité projet au management
Offre d'emploi
Développeur Python/ Data & IA H/F
CELAD
Publiée le
40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
Mission freelance
Data Product Owner (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
Mission freelance
SAP BW Data Extraction Azure Consultant - Toulouse
Signe +
Publiée le
Azure
SAP BW
6 mois
400-710 €
Toulouse, Occitanie
Dans le cadre du développement de sa plateforme Data Azure, notre client recherche un(e) Analyste SAP Data Ingestion pour gérer l’intégration des données SAP vers Azure, en lien avec les équipes SAP, Data et Gouvernance. Missions : Recueillir et analyser les besoins d’extraction de données SAP Mettre en place et maintenir les pipelines d’ingestion (Azure Data Factory, Data Lake…) Assurer la qualité et la cohérence des données Gérer les incidents, corrections et le bon fonctionnement des flux Documenter les processus et flux de données Informations complémentaires : Démarrage : ASAP Durée : 6 mois renouvelable Localisation : Toulouse (2 jours de remote par semaine) TJM : Selon profil
Mission freelance
PO data/BI - xp Supply Chain
FF
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
1 an
Paris, France
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique (background technique dans l'idéal) qui maitrise : Obligatoire : - L’environnement GCP – BigQuery - Expérience(s) côté Supply chain - Vous avez une bonne connaissance de Power BI. - Vous êtes rompus aux techniques de l’agilité. Démarrage : ASAP / fin juin Lieu : Paris Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Si votre profil correspond, n'hésitez pas à postuler ! A bientôt,
Offre d'emploi
Business Analyst Data
Peppermint Company
Publiée le
Business Analyst
Data management
Développement
Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Offre d'emploi
Développeur Python/ Data & IA H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ Data & IA H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez sur un projet innovant autour de la conception et de la validation d’un modèle de données complexe dédié à l’analyse d’impacts environnementaux. Dans ce cadre, vous travaillez sur un écosystème logiciel en Python structuré autour d’un méta-modèle de données, avec des enjeux forts de qualité, de cohérence et de validation scientifique. Votre rôle consiste à tester, analyser et faire évoluer ce modèle ainsi que les chaînes d’import de données, dans un environnement collaboratif intégrant des outils d’intelligence artificielle. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser et comprendre un modèle de données existant et ses mécanismes - Tester de manière critique les chaînes d’import de données (YAML, Excel) - Développer et améliorer des fonctionnalités en Python - Mettre en place et exécuter des tests automatisés (pytest) - Utiliser des outils d’assistance au développement par IA (Copilot, Cursor…) - Documenter les résultats, anomalies et axes d’amélioration
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1015 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois