L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 330 résultats.
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Mission freelance
Data Product Manager
K2 Partnering Solutions
Publiée le
Data management
1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Offre d'emploi
Data & Platform Engineer – Microsoft Fabric
AEROW
Publiée le
Apache Spark
Azure
Azure Data Factory
1 an
40k-64k €
400-600 €
Gosselies, Hainaut, Belgique
2 JOURS NON NEGOCIABLES SUR SITE CLIENT A GOSSELIES (BEL) Dans le cadre du renforcement de sa Factory Data , CLIENT recherche un Data & Platform Engineer pour intervenir sur la gestion, l’évolution et l’industrialisation de sa plateforme data basée sur Microsoft Fabric . Le consultant rejoindra l’équipe Plateforme Data et interviendra à la fois sur les aspects Data Engineering (80%) et Platform Engineering Fabric (20%) . 🛠️ Data Engineer – 80% Développement des flux d’ingestion via Fabric Data Factory (et connaissance Azure Data Factory ) Développement des flux de transformation via Fabric Notebooks (Spark / PySpark) Optimisation des requêtes et des transformations (performance & coûts Azure) Modélisation du Lakehouse Conception et implémentation de l’ architecture médaillon (Silver / Gold) Rédaction du design technique Définition et exécution des tests unitaires (automatisables) Estimation des charges lors du cadrage des demandes Rédaction de la documentation technique Contribution aux guidelines et à l’amélioration continue Support, maintenance et gestion d’incidents en production ⚙️ Platform Engineer – 20% Administration et évolution de la plateforme Microsoft Fabric (workspaces, capacités, paramètres tenant, intégrations Azure) Suivi actif de la roadmap Microsoft Fabric (preview / GA) Gestion et optimisation des capacités Fabric (performance, priorisation, dimensionnement, coûts) Mise en place et évolution de l’ Infrastructure as Code (IaC) Monitoring et optimisation des coûts d’infrastructure Collaboration avec les équipes Infrastructure, Sécurité, IAM, FinOps Support plateforme, analyse d’incidents et fiabilisation du service
Offre d'emploi
Administrateur système et réseau H/F
PROXIEL
Publiée le
Administration réseaux
Administration système
LAN
3 ans
32k-38k €
300-350 €
Bagnols-sur-Cèze, Occitanie
Nous recherchons pour notre client situé sur Bagnols sur Cèze (30) un Administrateur système et réseau H/F. Missions : Dans le cadre du renforcement de son équipe IT, notre client, acteur majeur du secteur industriel, recherche un(e) Administrateur(trice) Systèmes & Réseaux pour intervenir sur un environnement technique exigeant et sécurisé : · Administration des serveurs (Windows / Linux) · Gestion des infrastructures réseau (LAN/WAN, VLAN, routage, Wi-Fi) · Supervision et maintien en condition opérationnelle des systèmes · Gestion des incidents niveau 2 et 3 · Mise en œuvre des politiques de sécurité (sauvegardes, antivirus, firewall, droits d’accès) · Participation aux projets d’évolution et de modernisation du SI · Rédaction de la documentation technique · Support technique aux utilisateurs Profil : Formation Bac+3 à +5 en informatique, vous détenez minimum 5 ans d’expérience. Vous avez une bonne maîtrise des réseaux LAN/WAN ainsi que sur MCS. Une expérience en secteur industriel sensible est appréciée. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances- Télétravail - Prime de Partage de la Valeur (PPV).
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Mission freelance
Data Engineer / Développeur Talend
ARGANA CONSULTING CORP LLP
Publiée le
Data governance
Data Lake
Data modelling
12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Mission freelance
Expert Looker Core (BI / Big Data)
Signe +
Publiée le
Looker Studio
8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Offre d'emploi
Développeur COBOL / PACBASE confirmé – CDI – 92
ASAP TECHNOLOGIES
Publiée le
CICS (Customer Information Control System)
COBOL
Pacbase
40k-45k €
Île-de-France, France
Je recherche actuellement un Développeur COBOL / PACBASE confirmé pour une opportunité en CDI basée dans le 92 , dans un environnement distribution . Au sein d’un périmètre applicatif stratégique, vous interviendrez sur des sujets de maintien en condition opérationnelle , évolutions et projets autour d’applications développées en COBOL / PACBASE . Vos missions : Assurer les développements liés à la maintenance corrective et évolutive Participer aux travaux de MCO / MEV / projets Contribuer à l’ analyse fonctionnelle détaillée et à l’ analyse technique Réaliser les développements en environnement COBOL / PACBASE / CICS Participer aux tests unitaires et aux tests d’intégration Identifier et corriger les anomalies Documenter les développements et contribuer à la préparation de la mise en production Participer à l’analyse et à la résolution des incidents de production Environnement technique : COBOL : impératif PACBASE : impératif CICS : impératif DATACOM : souhaité Périmètre d’intervention : Applications TP FILIERE DATACOM Fournisseur Gestion des Tables Participation au projet RANG TARIFAIRE
Offre d'emploi
Business Analyst Kelia (H/F)
Ailancy Technology
Publiée le
45k-70k €
France
Pour le compte de l'un de nos clients, un acteur majeur du secteur de l'assurance en Île-de-France, nous recherchons un Business Analyst confirmé disposant d'une maîtrise obligatoire du logiciel KELIA. Vous interviendrez sur des projets stratégiques à forte valeur ajoutée liés aux systèmes d'information métiers, en lien direct avec les équipes IT et les directions fonctionnelles. Vos missions : Recueillir, analyser et formaliser les besoins métiers Rédiger les spécifications fonctionnelles détaillées Assurer l'interface entre les équipes métiers et techniques Paramétrer et optimiser le logiciel KELIA Participer aux phases de recette (stratégie, scénarios, exécution, suivi des anomalies) Accompagner le déploiement des solutions et le changement Garantir la cohérence fonctionnelle des évolutions SI
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)
EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL
1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
Offre d'emploi
Chef de projet réseau H/F
iDNA
Publiée le
Firewall
LAN
Load Balancing
12 mois
61k-67k €
480-500 €
Île-de-France, France
Nous Connaitre : Créé en 2011, iDNA est un cabinet de conseil indépendant qui accompagne ses clients sur les domaines clés de l’IT et les aide à créer de la valeur grâce à leur système d’information. Nous intervenons auprès des plus grandes entreprises françaises. Après 15 années de développement dans la cybersécurité des environnements IT et OT, iDNA devient une filiale de NXO France tout en conservant son identité, son autonomie opérationnelle et ses équipes. Une alliance fondée sur des valeurs communes, la complémentarité des expertises et une ambition partagée : créer toujours plus de valeur pour nos clients. Contexte :Pour l’un de nos clients (secteur bancaire), nous recherchons un(e) Chef(fe) de Projets réseau chargé(e) de piloter des projets réseaux dans un contexte international. Vous intégrerez l’équipe Build, MCO et RUN sur les équipements d'infrastructure sécurité. A cet effet, vos missions consisteront à : · Assurer le suivi des projets, apporter conseil et assistance à l'équipe · Assurer le suivi des projets, imprimer le rythme des évolutions, coordonner et faciliter les échanges avec les autres équipes, effectuer un reporting d'avancement · Participer au dispatch des tâches de RUN (tickets de demande, d'incident, etc ...) dans un objectif de qualité, de productivité et de sécurité. · Suivre particulièrement le projet de migration VPN (coordination, relances) et remonter les points de blocage · Participer à la structuration de la documentation et assurer le suivi de son évolution. · Participer à la veille technologique, · Vérifier l'application des normes (sécurité informatique, qualité) et les contrôles permanents · Participer à la gestion du « capacity planning » notamment en aidant à la conception de Dashboard · Assurer le suivi de l'obsolescence de nos assets · Assurer le suivi des tâches déléguées à l'équipe INX Vos responsabilités : - Pilotage de projets techniques complexes - Supervision de l'ensemble du cycle de vie des projets (cadrage, conception, réalisation, déploiement) - Garantit du respect des délais, des budgets et de la qualité - Gestion des arbitrages techniques et fonctionnels - Coordination des équipes et des parties prenantes - Encadrement des chefs de projet, architectes, développeurs, intégrateurs, etc - Animation des comités de pilotage et de suivi - Expertise technique et choix d'architecture - Validation des choix technologiques et des architectures proposées - Amélioration continue et innovation - Suivi budgétaire et gestion des risques - S'assurer de la cohérence technique avec le système d'information existant - Assurer la communication entre les équipes techniques, métiers et direction - Anticiper les impacts techniques et sécuritaires des projets - Élaborer et suivre les budgets projets - Identifier les risques (techniques, humains, organisationnels) et mettre en place des plans de mitigation - Assurer la conformité aux normes internes et réglementaires - Capitaliser sur les retours d'expérience pour améliorer les pratiques de gestion de projet - Promouvoir l'innovation technologique au sein des projets - Participer à la veille technologique et à la transformation digitale de l'entreprise - Participer à la veille et l'évaluation prospective technologique sur les produits ; Avantages & PerspectivesLocalisation : IDF, possibilité de distanciel à définir avec le clientDémarrage : dès que possibleTJM : +/-500 euros selon profilPossibilité d’intervenir en Heures Non Ouvrables (HNO)
Offre d'emploi
QA DATA
KOUKA
Publiée le
CI/CD
Cypress
JIRA
40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5330 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois