L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 345 résultats.
Offre d'emploi
Expert SAP FICO (Orienté CO Fonctionnel & Technique)
Publiée le
SAP FICO
60k-80k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Vos principales missions : Paramétrage et configuration des modules SAP FICO selon les besoins métiers Participation aux projets de déploiement et d’évolution du Core Model SAP (nouveaux sites, roll-out, évolutions légales, etc.) Analyse des besoins fonctionnels , conception de solutions et rédaction de spécifications techniques Contribution à la maintenance évolutive et corrective , en lien avec les équipes techniques et les key users Tests, recettes et formation des utilisateurs finaux Participation aux projets d’intégration et d’interfaçage (modules MM, SD, CO, ou outils BI) Veille technologique sur les nouveautés SAP (S/4HANA, Fiori, etc.)
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
PO DATA - DECISIONNEL
Publiée le
Data management
Dataiku
ETL (Extract-transform-load)
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Mission freelance
Linux Expert Technical Consultant Lille Mastering Packaging Redhat Centos
Publiée le
Linux
Red Hat Linux
6 mois
Lille, Hauts-de-France
Télétravail partiel
Linux Redhat Expert Technical Consultant Lille Mastering Packaging RedHat, CentOs, Ubuntu Scripting shell et/ou python Ansible / terraform / jenkins/packaging (2 jours TT apres 2-3 mois) Au sein d’une Direction Transverse en charge de construire et assurer le maintien en condition opérationnelle des souches systèmes linux dans un contexte cloud hybride fortement industrialisé, la mission consiste à : Créer et documenter des masters aux standards du client et customisés pour un usage. Créer des packages customisés Industrialiser et documenter via ansible Apporter support niveau 4, procédurer, faire monter en compétence le CDS N3 Contribuer aux projets : migrations, build nouveaux socles, etc. Compétences techniques : RedHat, CentOs, Ubuntu Scripting shell et/ou python Ansible / terraform / jenkins Connaissances appréciées : Gitlab, solutions de virtualisation (VMware, Nutanix)
Mission freelance
Data Analyst – Skywise / Data Products / Substances
Publiée le
Product management
Reporting
SAP
3 ans
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst pour rejoindre une équipe Data engagée dans l’optimisation et la valorisation des Data Products au sein de la plateforme Skywise. 📍 Toulouse - 3-4 jours de TT 📅 Démarrage ASAP ou Janvier possible Votre rôle : garantir la qualité, la cohérence et la disponibilité des données, tout en soutenant la création de nouveaux Data Products et le reporting associé. ✅ Créer et améliorer les Data Products (80+ existants) ✅ Maintenir le lien entre HazMat (SAP) et les données Skywise ✅ Concevoir des Data Products Composites (ex. : Chemicals x Logistics) et assurer leur officialisation dans le catalogue Skywise ✅ Développer et maintenir les cockpits et rapports Substances ✅ Fournir des extractions et analyses pour les clients internes
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Mission freelance
Administrateur technique Linux/Windows
Publiée le
Ansible
Domain Driven Design (DDD)
Exploitation
12 mois
Deux-Sèvres, France
Télétravail partiel
Métiers et fonctions : Production, Exploitation, Infrastructure ; Administrateur. Spécialité technologique : DevOps. Type de facturation : Assistance Technique (facturation avec un taux journalier). Compétences et technologies : Kibana, Grafana Linux (5 ans) Ansible Jenkins, GitHub (5 ans) Prometheus Dynatrace CI/CD Windows (5 ans) Secteur d'activité : Assurance. Description et livrables de la prestation : Dans le cadre de l’évolution du système d’information, le client recherche un administrateur technique Linux/Windows pour intervenir sur un périmètre éditique et flux documentaires. Les missions principales incluent : L’exploitation et l’administration des systèmes Linux et Windows. L’analyse, la mise en place et le suivi de l’observabilité des progiciels. L’automatisation et l’industrialisation en logique DevOps. Participation aux mises en production. Support N2/N3, résolution d’incidents et de problèmes. Maintien en conditions opérationnelles et mise à jour des documents de production. Conseil technique sur la performance, robustesse, sécurité, fiabilité. Profil impliqué, proactif, soucieux de la qualité de service. Livrables attendus : Dossiers d’architecture mis à jour (exploitabilité, observabilité, performance). Dashboards d’observabilité et supports pour leur usage. Rapports d’incidents. Documentation de production.
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Mission freelance
INGENIEUR DATA POWER BI H/F
Publiée le
Microsoft Power BI
Workday
1 an
450-550 €
Vélizy-Villacoublay, Île-de-France
Contexte business / Business context : Accompagner les Business Process Owners en leur fournissant des dashboards et des analyses pertinentes sur les données issues : Principalement de Cornerstone onDemand pour la première personne qui travaillera sur les données formation Sur les données issues de Workday pour la seconde personne qui travaillera sur les données Talent & Performance Périmètre / Scope : (Détailler le périmètre fonctionnel & géographique / Detail functional & geographic scope) Worldwide Objectifs du projet / Goals of project Au sein du HR Data Office, vous accompagnerez les Business Process Owners de la formation et du Talent & Performance dans la définition, la création de tableaux de bords PowerBI et la mise en avant des éléments pertinents pour servir ces deux fonctions.
Mission freelance
Un(e) Chef(fe) de Projet Cybersécurité
Publiée le
Comité de pilotage (COPIL)
Cybersécurité
Endpoint detection and response (EDR)
1 an
550-600 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de son dispositif cybersécurité, le client souhaite être accompagné(e) par un(e) Chef(fe) de Projet Cybersécurité capable de piloter différents projets de sécurité, de contribuer à la mise en conformité réglementaire et d’assurer la coordination entre les équipes IT, métiers, sécurité et prestataires externes. Le/la consultant(e) intégrera l’équipe projet en place et participera activement aux instances de gouvernance internes (comités projets, COPIL, SteerCo, etc.). La mission pourra également inclure la gestion de contrats dans le cadre d’un renouvellement de solutions de sécurité.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
Chef de projet infrastructure (H/F)
Publiée le
DataCenter Infrastructure Management (DCIM)
2 ans
100-570 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de projet infrastructure (H/F) à Lille, France. Les missions attendues par le Chef de projet infrastructure (H/F) : ❑ Support au Head of Technology (CTO) - Accompagner le Head of Technology (CTO) dans la définition et l’exécution de la stratégie d’infrastructure, - Assurer un rôle de relais managérial et décisionnel au sein de la direction Technologie - Garantir la continuité de service et la qualité des opérations IT dans un contexte international et multi-sites, - Représenter la direction Technologie auprès des parties prenantes internes et externes (équipes métiers, partenaires technologiques, éditeurs, intégrateurs), ❑ Pilotage de l’infrastructure - Superviser l’ensemble des infrastructures : data centers, cloud, réseaux, sécurité, systèmes, - Piloter les opérations, la performance et la résilience des infrastructures, dans un contexte d’activité critique (retail, supply chain, e-commerce), - Assurer la disponibilité et la sécurité des systèmes, en lien avec les équipes cybersécurité, - Optimiser les coûts et les performances des infrastructures en recherchant en permanence l’efficacité et l’innovation, ❑ Transformation technologique et organisationnelle - Définir et mettre en œuvre une feuille de route de transformation : migration vers le cloud hybride, modernisation des data centers, adoption de solutions innovantes (edge computing, automatisation, monitoring intelligent), - Porter la transformation culturelle et organisationnelle : évolution vers un modèle agile et collaboratif (DevOPS, SRE et Plateforme Engineering), - Conduire le changement au sein des équipes infrastructures, en développant les compétences et en favorisant une culture de l’innovation, - Collaborer étroitement avec les autres départements IT et les métiers pour aligner la stratégie infrastructure sur les besoins business et l’expérience client, ❑ Gouvernance et management - Encadrer des équipes internationales (internes et partenaires externes) avec une approche de leadership engageante, - Mettre en place une gouvernance claire : suivi de la performance, indicateurs de disponibilité, plans de continuité et de reprise, - Développer les talents et favoriser la montée en compétence des collaborateurs,
Mission freelance
Chef de Projet
Publiée le
Réseaux
SD-WAN
WAN (Wide Area Network)
1 an
450-500 €
Nantes, Pays de la Loire
Télétravail partiel
Missions Dans le cadre du déploiement et du pilotage de ses infrastructures réseau, le client, qui est une grande banque française, recherche un(e) Chef(fe) de Projet Réseau pour assurer le pilotage de projets techniques majeurs en lien avec les équipes internes et les caisses régionales. Les projets principaux concernent : Déploiement WAN / SD-WAN / Wi-Fi / Wi-Fi Guest sur l’ensemble des agences et sites administratifs (déjà ~10 % migrés). Suivi d’un RFP pour la connectivité des guichets automatiques bancaires (GAB) hors sites Suivi d’un projet concernant la connectivité des camions de banque Vos tâches seront les suivantes : Coordination avec les chefs de projets de la DSI et les représentants des caisses régionales. Suivi global des projets de connectivité (WAN, LAN, SD-WAN, Wifi, Wifi Guest). Gestion des phases de build et run des projets réseau. Pilotage de différents RFP en cours et à venir. Lancement et pilotage de POC. Communication des décisions aux caisses régionales. Collecte des besoins, contraintes et pain points des caisses régionales. Organisation et animation d’ateliers de travail. Remontée des points bloquants dans les comités de suivi. Compétences Excellente capacité de coordination multi-acteurs. Connaissance approfondie des technologies : WAN, LAN, SD-WAN, Wi-Fi. Expérience en pilotage de projets IT / Réseau dans des environnements complexes. Capacité à animer des ateliers, synthétiser les besoins, et suivre les actions. Aisance relationnelle, communication claire et efficace. Maitrise des processus de gouvernance projet (comités, reporting…). Linguistiques : Anglais : professionnel Profil recherché : Titulaire d’un diplôme d’ingénieur ou universitaire technique, vous disposez d’une expérience de 5 ans minimum dans le domaine des réseaux d’entreprise, avec une évolution dans un poste similaire. Modalités : Démarrage : ASAP Charge : Plein temps Durée : Long terme Localisation : Nantes Télétravail : 2 jours / semaine
Mission freelance
Junior Data Analyst – Power BI
Publiée le
DAX
Microsoft Power BI
Modélisation
3 ans
250 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
‼️ Junior Data Analyst – Power BI ‼️ FREELANCE / PORTAGE SALARIAL - Longue mission 🔍 Nous recherchons un(e) jeune Data Analyst Power BI motivé(e) et prêt(e) à se lancer sur une mission opérationnelle très concrète : migration de dashboards Power BI existants. 📅 Démarrage ASAP 📍 Lyon 🎯 Mission : ✅ Migrer des rapports Power BI hébergés sur Power BI Server on-premise ✅ Revoir le modèle de données si nécessaire ✅ Garantir la cohérence visuelle & fonctionnelle des rapports Possibilité d'intégrer le client en CDI au bout d'un an de prestation
Offre d'emploi
Chef de projet DATA/MDM H/F
Publiée le
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Vos missions principales : Pilotage de projets Data : vous conduisez des projets structurants de bout en bout, de la définition des besoins à la mise en production. Recueil et challenge des besoins métiers : vous identifiez les enjeux, proposez des solutions adaptées et accompagnez les équipes dans leur appropriation. Coordination transverse : vous êtes l'interface clé entre les équipes métiers, IT et data. Gouvernance de la donnée : vous contribuez activement à la mise en place de référentiels, à l'amélioration de la qualité des données, au catalogage et à la traçabilité. Suivi de la performance data : vous participez à la définition et au pilotage des KPIs liés à la valorisation des données.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2345 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois