L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 972 résultats.
Offre d'emploi
Architecte Cloud de Confiance
Publiée le
Azure
Google Cloud Platform (GCP)
3 ans
Paris, France
Télétravail partiel
1. Architecture Cloud et gouvernance des socles Concevoir et faire évoluer les architectures des socles Cloud dans un contexte Cloud de Confiance. Définir et maintenir les standards d’architecture , patterns et bonnes pratiques Cloud. Produire et maintenir les dossiers d’architecture (socle, sécurité, réseau, IAM, exploitation). Participer aux revues d’architecture projets et émettre des avis techniques structurants. Contribuer à la définition des principes de gouvernance Cloud (sécurité, exploitabilité, coûts, conformité). 2. Industrialisation et Infrastructure as Code Concevoir, développer et maintenir des modules Infrastructure as Code (Terraform) pour les socles et les projets. Structurer des architectures IaC modulaires, versionnées et documentées . Mettre en œuvre et maintenir des pipelines CI/CD pour l’industrialisation des socles et environnements projets. Garantir la qualité des livrables via des pratiques de tests, revues de code et standards de développement . Contribuer à une approche GitOps / Platform Engineering . 3. Communs Cloud et logique produit Développer et maintenir un catalogue de communs Cloud . Assurer la maintenance évolutive des communs existants. Garantir la cohérence et la compatibilité des communs dans un contexte multisocle . Participer à une logique produit plateforme .
Offre d'emploi
Data analyst confirmé marketing client
Publiée le
PowerBI
SQL
12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Offre d'emploi
Ingénieur Systèmes / Cloud – Build & Run (H/F)
Publiée le
Ansible
Argo CD
Automatisation
3 ans
45k-52k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🎯 Contexte Dans le cadre du renforcement d’une équipe infrastructure, nous recherchons un Ingénieur Systèmes / Cloud intervenant sur un périmètre complet Build & Run , au sein d’un environnement technique riche mêlant cloud privé, legacy et Kubernetes , en mode agile. 🛠️ Vos missions 🔧 BUILD Construction et mise à disposition d’environnements sur une plateforme interne type OpenStack Création et gestion : Machines virtuelles VIP Demandes de flux Lancement de pipelines CI/CD GitLab Exécution et maintenance de playbooks Ansible Participation aux MEP et projets de migration : RHEL 7 → RHEL 8 Migrations OS / versions Bases de données MySQL 🔄 RUN Support N2 / N3 Résolution d’incidents et maintien en conditions opérationnelles (MCO) Analyse et traitement des alertes issues de la supervision : Zabbix Tenable / Tenatras Prise en charge des incidents utilisateurs / agences Interventions sur : Environnements Cloud privé Legacy Kubernetes
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Consultant Technique SAP S/4HANA (Intégration & Data) H/F
Publiée le
API
Architecture
Idoc
6 mois
Montpellier, Occitanie
Télétravail partiel
Et si vous rejoigniez un programme S/4HANA qui compte vraiment ? Notre client, groupe industriel international , transforme en profondeur son écosystème IT autour de SAP S/4HANA. Un programme structuré, soutenu, avec une vraie vision long terme : qualité de la donnée, intégration inter-systèmes, alignement stratégique et excellence opérationnelle. Pour accompagner cette transformation, nous recherchons un Consultant Technique SAP S/4HANA passionné par l’intégration, la data et les architectures applicatives modernes. Ici, vous n’êtes pas une “ressource”. Vous devenez le référent technique d’un programme SAP à haute visibilité.
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Mission freelance
DATA ANALYST SENIOR LOOKER
Publiée le
24 mois
300-600 €
Paris, France
Télétravail partiel
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Mission freelance
Product Manager Data – Finance Corporate
Publiée le
Data management
Hyperion
Product management
3 mois
Île-de-France, France
Télétravail partiel
Dans le cadre d’un programme de transformation Finance mondial , nous recherchons un Product Manager Data pour piloter le cadrage puis la mise en place d’un EPM Oracle PBCS au service de la Finance Corporate. 🎯 Votre rôle Porter la vision produit Data Finance Piloter la roadmap Data & EPM (Oracle PBCS) Traduire les besoins Finance Corporate (Budget, Forecast, Performance) en solutions Data Garantir la qualité, la cohérence et la valeur métier des données Travailler en transverse avec les équipes Finance, IT et Data à l’international
Offre d'emploi
Expert Support Production Instant Payments et Cloud
Publiée le
Ansible
Openshift
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurer le support de la Production Instant Payments, Global Money Transfer - Services groupe des Virements internationaux (GMT) et API Connectivity. Une entreprise leader en services financiers modernise son système d'information de paiements pour le groupe. La première étape de cette transformation était de créer une solution centrale pour les virements instantanés, avec des technologies modernes, notamment Kafka, MongoDB, Akka, Cassandra, Angular, PostGreSQL. La donnée étant centrale dans cette nouvelle solution de paiements, chaque évènement est intégré dans un Data Hub. La solution est déployée dans les différentes entités du groupe, à savoir la Belgique, le Luxembourg, l'Italie, et les pays CIB (Allemagne, Portugal, Espagne, Hollande, Autriche, Hongrie). Le programme est stratégique pour le groupe et s'inscrit sur plusieurs années, évoluant avec les réglementations (Rule Book, IPR…). Deux solutions cohabitent actuellement : Solution V1 sur une infrastructure VM legacy classique, dite "On premise" Solution V2 sur une infrastructure Cloud dédiée mise en œuvre en partenariat avec IBM, dite dMZR ou dCloud Une migration de la solution V1 vers la solution V2 a eu lieu pour toutes les différentes entités à l'exception de CIB Hongrie. La solution API Connectivity est une passerelle permettant à des clients Corporate de réaliser des opérations de paiements (virements SEPA ou virements SCT Instantanés) vers leurs propres clients. Missions Suivi opérationnel de la plateforme New Payment Engine (SEPA Instant payments), des services groupe GMT (Virements Internationaux) et API Connectivity (New Connectivity, OpenBanking, Request To Pay) Exploitation et garant de la continuité de l'activité de son périmètre Expertise d'un service de Support en 24/7 (avec participation à la rotation pour les Astreintes en Heures Non Ouvrés) et maintien de la documentation du patrimoine Point d'entrée sur les sujets production pour les entités et l'ensemble des acteurs (Squads IT.PS et BCEF IT, CMCT, ITGP, Prodsec, Telecom, BP2I) et en charge des incidents, problèmes et des demandes d'évolution (suivis bout en bout, diagnostics, livraisons en production) Proposition et réalisation des optimisations si opportunités (automatisation / simplification / Standardisation) Construction et pilotage de Dashboards de Monitoring (Kibana, Sysdig, Dynatrace) Maintien de la documentation d'exploitation (DE/DI, Confluence, Sharepoint) Gestion des environnements Production et Hors Production Expertise en tant que Référent technique sur la gestion des certificats et de la chaine DevOps CI/CD (ArgoCD, Digital AI, Ansible Tower) Contacts réguliers avec les équivalents dans les différentes entités IT Métiers voir Métiers Support applicatif et fonctionnel aux utilisateurs Attention particulière portée à la documentation (Base de connaissances : Service NOW Confluence, Wiki, Sharepoint, supports classiques) des procédures et dossier d'exploitation Profil RecherchéConnaissances Techniques Requises Le candidat doit avoir de solides connaissances sur : Unix Gestion des certificats Gestion des incidents Très bonnes connaissances sur les nouvelles technologies (notamment Kubernetes, Container, Docker, MongoDb, Kafka, ElasticSearch, PostgreSQL) sur lesquelles reposent les applications du périmètre Très bonne connaissance fonctionnelle des paiements Expertise Cloud/IKS/Openshift Le présent appel d'offre concerne le support avec une expertise technique Cloud/IKS/Openshift. Le candidat doit avoir une maîtrise de haut niveau sur les technologies Cloud : OpenShift Ansible Outils de gestion Infrastructure As Code (IaC) comme Terraform Kubernetes Docker Coffre-fort (Vault) ArgoCD Helm Sysdig Gitlab CI, Jenkins, etc…
Offre d'emploi
Data Manager / Coordinateur Data Governance
Publiée le
Data governance
1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
Offre premium
Mission freelance
Expert Atlassian
Publiée le
Atlassian
6 mois
Île-de-France, France
Télétravail partiel
Expert Atlassian, Freelance, 6 mois de contrat initial, IDF, 40% de remote Opportunité attrayante pour un(e) spécialiste de Atlassian de pour rejoindre notre client final basé à la Défense et qui accompagne quotidiennement des millions de particuliers et de professionnel à travers le monde. Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de l’architecture cloud. Principales missions : o Création et adaptation des workflows o Automatisation o Gestion des users et du RBAC o Adaptation des Workflows o Accompagnement des collaborateurs internes dans leur migration vers Atlassian Cloud o Mise en place la stratégie de déploiement o Migration des projets o Accompagnement des entités clientes : coaching et implémentations
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Mission freelance
Data Manager - Migration Microsoft Business Central - Valréas (84)
Publiée le
Data management
ERP
Migration
3 mois
Valréas, Provence-Alpes-Côte d'Azur
Nous recherchons en urgence un(e) Data Manager pour le site de Valréas (secteur Orange / Nyons). Le contexte : Les données ont été centralisées récemment sous la responsabilité du DSI (équipe de 6 personnes). Le projet de migration vient de démarrer, et le rôle de data manager est clé pour la réussite de ce projet. Type de poste : À terme, il s’agit d’un CDI . Pour répondre à l’urgence, nous pouvons envisager une mission ponctuelle le temps du projet. Profil recherché : Si consultant : Connaissance impérative de Microsoft Business Central . Sinon : un(e) spécialiste Data sur des ERP en manufacturing avec gestion qualité et traçabilité.
Mission freelance
Consultant DATA Gouvernance Senior
Publiée le
Data governance
1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
4972 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois