L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 607 résultats.
Mission freelance
Chef de projet Finance
Publiée le
Finance
JIRA
Pilotage
2 ans
450-550 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Définir les besoins métier, établir les spécifications fonctionnelles générales et rédiger le cahier des charges - Conduire le projet : organisaton, coordination et animation - Préparer et déployer le projet - Mettre en oeuvre des actions d'accompagnement des utilisateurs - Garantir la meilleure adéquation qualité coût délai - Mission sur la métropole lilloise avec télétravail hybride Compétences demandées : - Expériences significatives comme chef de projet Finance - MOA ou AMOA - Maitrise processus comptables Order to Cash - Excellents savoir-être : rigueur, esprit d'équipe, communication... - Anglais un +
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
Data Analyst DENODO BI Aix en Provence
Publiée le
Data analysis
6 mois
270-280 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Data Analyst DENODO BI Aix en Provence ASAP Rythme : Hybride (2j de TT / 3j en présentiel) Séniorité : Entre 3 et 6 ans Prérequis : Compétence sur l'outil DENODO Missions : • suivre et intervenir dans le cadre de la montée de version DENODO V9 (depuis le Version actuelle V8) • Suivre et intervenir dans le cadre de l'administration de l'outil et de l'offre • Accompagner nos clients dans l'utilisation et le développement de couches métiers ou composants DENODO de l'offre une expérience de 2 ans est demandée sur DENODO avec (Compétence vernis d'environnement BI (POWERBI, POWERAPPS) est un +) • Expérience en data virtualisation sur l'outil DENODO (entre 1,5 et 2 ans minimum DENODO V8 et/ou V9)
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Mission freelance
Data Engineer
Publiée le
Apache Spark
Data visualisation
Java
12 mois
460-500 €
Toulouse, Occitanie
Télétravail partiel
Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.
Mission freelance
POT8700 - Un Data Engineer sur Clermont-ferrand
Publiée le
Microsoft Power BI
2 mois
280-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-ferrand. Descriptif : Le Data Engineer développe, construit et maintient des infrastructures de données d'un point de vue système et sécurité. Il s'assure de la collecte, du stockage et de l'exploitation des flux de données répondant aux enjeux de l'entreprise. Compétences techniques : Data engineer - Confirmé - Important Connaissances BI / Data - Confirmé - Important Connaissances linguistiques : Anglais Courant (Impératif) Français Courant (Secondaire)
Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Publiée le
Azure
Databricks
Méthode Agile
14 mois
Châtillon, Île-de-France
Télétravail partiel
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
Ingénieur Data Management – Microélectronique (F/H) – Toulouse
Publiée le
Electronique
42k-45k €
Toulouse, Occitanie
Télétravail partiel
📑 CDI 42-45K€ / Freelance / Portage Salarial – 🏠 2 jours de télétravail /semaine – 📍 Toulouse (31) – 🛠 Expérience de 5 ans minimum 🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Ingénieur Data Management – Microélectronique (équipe CAD) (F/H) pour intervenir chez notre client dans le domaine des semi-conducteurs à Toulouse. 💻💼 L’objectif ? Garantir la fiabilité, la cohérence et la transférabilité de l’ensemble des environnements de conception — analogiques, numériques et physiques — avant leur livraison finale. Vos missions 🎯 : - Collaborer avec les équipes de conception, d’outillage et de production pour comprendre leurs besoins sur le transfert des données, vérification de cohérence des bases de données. - Vérifier les flux de données liés aux librairies technologiques, et aux environnements de conception, pour assurer leur cohérence et leur disponibilité. - Automatiser les processus de mise à jour, de synchronisation et de vérification des données via des scripts (Python, Shell, Perl ou équivalent). - Préparer l’environnements utilisés par l’équipe CAD, en garantissant versioning et intégrité des données. - Documenter les procédures, les bonnes pratiques et les architectures de données afin d’assurer la continuité et la qualité des opérations. Environnement technique : Python, Shell, Pipelines, Linux, Microélectronique, Design Flow, Cadence, Git…
Offre d'emploi
Chef de projet Data / IA
Publiée le
AWS Cloud
1 an
40k-68k €
460-660 €
Paris, France
Télétravail partiel
1/ immédiatement après recrutement : support au suivi du périmètre historique de la squad usage Data & IA 2/ Suivi des chantiers sur les usages (livraisons, jalons clés, suivi proactif avec les parties prenantes internes) avec un focus sur l’IA pour le Marketing (proposition de cas d’usages, étude de faisabilité, matrice valeur x effort, anticipation des renforts…) 3/ en lien avec le 2/ capacité à rentrer dans les sujets et apporter une expertise permettant d'être au rendez-vous de chaque jalon prévisionnel de livraison 4/ Préparation et animation des réunions avec les responsables métiers du Pôle Utilisateurs Data : avancement des différents sujets et priorisation des cas d'usages 5 / Echange / Reporting auprès des PO et du leader de la tribu Data Factory
Offre d'emploi
Architecte Solutions Cloud GCP – Expertise Data & Architecture Résiliente
Publiée le
Architecture
Cloud
Google Cloud Platform (GCP)
24 mois
60k-85k €
600-850 €
Île-de-France, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en DevOps, Data, Craft, sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT et nucléaire . Votre rôle Dans le cadre d’un projet stratégique de modernisation des plateformes Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud GCP expérimenté(e). Vous interviendrez sur des sujets d’ architecture hybride, de Data Management et d’optimisation cloud , tout en accompagnant les équipes techniques et métiers dans l’adoption des meilleures pratiques Cloud. Votre rôle combinera expertise technique, conception d’architectures sécurisées et évolutives , et accompagnement au changement auprès des équipes internes. Vos missions principales Concevoir et faire évoluer des architectures Cloud GCP sécurisées, performantes et résilientes. Participer à la conception de solutions hybrides assurant la réversibilité et la consommation de données entre le cloud et l’on-premise. Contribuer à la mise en œuvre de solutions Data Management sur GCP (BigQuery, Starburst, Minio, Apache Spark). Fournir conseil et expertise sur les bonnes pratiques GCP, la gouvernance et l’optimisation des coûts. Réaliser et présenter les dossiers d’architecture auprès des équipes techniques et des instances de gouvernance. Acculturer et former les équipes d’architectes internes sur les fondamentaux et les services Cloud GCP (présentations, ateliers, documentation). Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente et les pratiques Agile & DevOps .
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Mission freelance
Data Engineer Google Cloud / BigQuery H/F
Publiée le
BigQuery
Google Cloud Platform (GCP)
2 ans
400-550 €
Rouen, Normandie
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer Google Cloud / BigQuery H/F à Rouen, France. Missions principales : Analyse, Conception et Modélisation Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Réaliser la recette technique Assurer la qualité avec des tests de non-régression
Offre d'emploi
Ingénieur Système Senior – Audit Infrastructure & Data Centers - (H/F)
Publiée le
Hyper-v
ISO 27001
VMware
3 mois
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
CONTEXTE DE LA MISSION : Dans le cadre de l’évolution et de la rationalisation de nos infrastructures IT, nous lançons une mission stratégique d’audit complet de nos data centers et environnements techniques. L’objectif : disposer d’une cartographie exhaustive, identifier les points de fragilité, et définir un plan d’évolution fiable et durable (rationalisation, migration, virtualisation, cloud hybride…). MISSIONS PRINCIPALES : Réaliser l’état des lieux complet des infrastructures : serveurs physiques & virtuels, environnements VMware/Hyper-V/Proxmox, stockage, sauvegarde, PRA/PCA, réseau et sécurité. Évaluer les performances, risques et redondances des environnements existants. Auditer les pratiques IT (sauvegarde, supervision, sécurité, conformité ITIL / ISO 27001 / ANSSI). Produire une documentation technique détaillée : cartographies physiques et logiques, inventaires serveurs, schémas d’architecture.
Offre d'emploi
BI / Big Data – Data Manager Senior
Publiée le
Apache Spark
Dash
Databricks
1 an
40k-56k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.
Offre d'emploi
Data Engineer – GCP confirmé·e
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2607 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois