L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 599 résultats.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Offre d'emploi
Consultant en Machine Learning H/F
Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)
12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
[MDO] ingénieur de plateforme de données - (min 7 ans XP)
Publiée le
CI/CD
Cloud
JIRA
5 mois
400-560 €
Flandre-Occidentale, Belgique
Télétravail 100%
En tant qu’ingénieur de plateforme de données, le rôle consiste à concevoir, développer et maintenir l’infrastructure supportant les pipelines de données et les applications pilotées par les données. La mission implique de créer un écosystème de données robuste, évolutif et fiable, en utilisant principalement Snowflake et des modules Terraform pour le cloud, tout en appliquant les bonnes pratiques DevOps, y compris CI/CD et tests d’infrastructure automatisés. La gestion sécurisée des secrets via des solutions comme HashiCorp Vault ou les gestionnaires de secrets cloud est également un aspect clé.
Mission freelance
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne
Publiée le
ETL (Extract-transform-load)
SAS
SQL
2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
Data Architecte H/F
Publiée le
Apache Airflow
Apache Spark
BigQuery
210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Offre d'emploi
Data Engineer (spécialisation Snowflake)
Publiée le
Agile Scrum
Azure
Data analysis
12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Offre d'emploi
Data Quality Manager
Publiée le
Data governance
1 an
40k-45k €
470-730 €
Paris, France
Télétravail partiel
À propos du rôle La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Offre d'emploi
Développeur Java Backend
Publiée le
Apache Kafka
Argo CD
Batch
3 ans
40k-60k €
400-600 €
Montpellier, Occitanie
Télétravail partiel
Nous recherchons un Développeur Java Backend expérimenté pour rejoindre la squad Entrée en Relation Personnes Morales et Entrepreneurs Individuels , en charge de la création d’un nouveau parcours d’entrée en relation selfcare et de la souscription d’offres de banque au quotidien . Ce projet représente un enjeu stratégique majeur pour le groupe à horizon 2025/2026. Le consultant contribuera à la conception, au développement et à la maintenance d’applications Java modernes tout en participant activement à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement (CI/CD). Vos principales missions : Concevoir, développer et tester des fonctionnalités logicielles avec Java 21 , Spring et Spring Boot 3 Gérer la chaîne CI/CD avec GitLab , SonarQube , JFrog Artifactory/XRay et Kubernetes , en collaboration avec les DevOps Participer à l’amélioration des pratiques de développement, au refactoring continu et à la mise en place de tests unitaires Travailler sur une stack technique diversifiée : APIs REST et SOAP (Legacy), BFFs Spring Boot, batchs Open, BDD DB2 Open et MySQL Préparer les mises en production avec CAGIP et assurer la qualité des livrables à chaque Sprint Maintenir la documentation technique à jour Diagnostiquer et résoudre les incidents techniques pour garantir la qualité de service
Mission freelance
Développeur Salesforce (H/F)
Publiée le
CI/CD
CRM
Salesforce Sales Cloud
2 ans
400-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Salesforce (H/F) à Lyon, France. Contexte : Concepteur / Développeur Salesforce sur le périmètre SI au sein du CRM-Marketing. Dans le cadre de l'exécution des feuilles de route et des projets du périmètre SI Client (Salesforce Core, Sales, Community, Service, ...) et en lien avec l’organisation de l'entité SI Digital, Front Office et Intégration Groupe de la DSI Centrale, nous recherchons un Développeur Salesforce pour réaliser les travaux de : - Conception technique Salesforce - Développement & paramétrage Salesforce Les missions attendues par le Développeur Salesforce (H/F) : La mission au sein de la DSI consiste à délivrer les activités ci-dessous en rendant compte au Scrum-Master ou au manager opérationnel du CRM & Marketing : 1. Conception technique Salesforce : Accompagner les équipes Métiers et les BA dans la traduction des besoins en solution technique Contribuer à la définition des solutions techniques en faisant ressortir le standard du spécifique Contribuer à la phase de grooming en fournissant notamment des évaluations de chiffrages Rédaction de documentations techniques Contribuer à la gestion de tous les environnements de développement et au processus de déploiement jusqu'à la production Proposer des améliorations sur les processus et implémentations Contribuer au diagnostic des incidents de Production et de Recette 2. Développement & paramétrage Salesforce : Participer aux instances de gestion de la Backlog en mode Agile Effectuer le paramétrage avancé Salesforce (workflows, ...) Effectuer les développements en APEX, composants Lightning, Visual Force, triggers, interfaces, workflows, API Coder les tests automatiques nécessaires à l'application Tagguer le code en lien avec la documentation JIRA Versionner les composants avec Git Déployer les composants dans le cycle de vie avec le process CI/CD Accompagner les BA et métiers dans la Recette et apporter les correctifs nécessaires
Mission freelance
Développeur CRM e-DEAL - Lyon
Publiée le
CRM
ETL (Extract-transform-load)
1 an
410-910 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
📢 Offre de mission – Développeur CRM E-deal (H/F) – LyonContexte de la mission Dans le cadre du renforcement des équipes digitales de notre client, nous recherchons un Développeur CRM E-DEAL / Efficy expérimenté afin d’accompagner les équipes métiers et IT dans l’évolution et l’optimisation de la plateforme CRM. L’objectif est de soutenir les projets de modernisation, d’amélioration de la relation client et de fiabilisation des processus internes grâce à une exploitation maîtrisée et évolutive du CRM Efficy. 🎯 Responsabilités principales Dossier d’architecture technique et de paramétrage. Dossier des développements et interfaces (code, scripts, documentation API / web services). Procédures de déploiement, guides d’exploitation et modes opératoires. Plans de tests et résultats associés (unitaires, intégration, recette, non-régression). Rapport de fin d’intervention et recommandations techniques. Journal de versions et de configuration. Documentation sécurité / conformité (RGPD, gestion des accès, sauvegardes). Propositions d’amélioration continue. 📍 Localisation Mission basée à Lyon , sur site (présence requise selon les modalités du client). ⏳ Durée & Disponibilité Démarrage : Dès que possible Durée : Long terme (mission renouvelable) Temps plein
Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Publiée le
Azure
Databricks
Dataiku
3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Offre d'emploi
Data analyst
Publiée le
Microsoft Power BI
Microsoft SSIS
SQL
12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Offre d'emploi
Dev java backend
Publiée le
API REST
CI/CD
Git
1 an
34000, Montpellier, Occitanie
Télétravail partiel
Nous recherchons un Développeur Java Backend confirmé pour rejoindre un grand compte bancaire basé en Occitanie. Le consultant interviendra sur le développement et l’amélioration d’applications backend essentielles au fonctionnement des services internes. Il participera à la conception d’API, à la mise en œuvre de fonctionnalités backend en Java / Spring Boot, à la gestion des données et à l’optimisation de la performance applicative. Le poste implique également la participation aux échanges avec les équipes métiers, frontend et infrastructure, ainsi que la prise en charge d’actions liées à la qualité du code, la sécurité applicative et la maintenance évolutive. Le contexte demande une bonne autonomie, de la rigueur technique et un esprit collaboratif.
Offre d'emploi
Ingénieur sécurité des chaines CICD et du code applicative (SCA, SAST, DAST, RASP/ADR)
Publiée le
CI/CD
GitLab CI
Microsoft Access
12 mois
40k-48k €
400-480 €
Meudon, Île-de-France
Télétravail partiel
Le consultant aura pour mission principale d'apporter son expertise pour : Analyse et Recommandations Stratégiques : Effectuer une veille sur le marché pour faire un premier état de l'art de ces solutions, voir retour d'expérience. Évaluer l'utilité et la pertinence des solutions SAST, DAST, SCA et/ou ADR/RASP dans le contexte spécifique (technologies utilisées, maturité des équipes, enjeux de sécurité). Évaluer la nécessité d'une plateforme de sécurité applicative spécialisée ou l'opportunité d'intégrer ces fonctionnalités à des outils existants (ex: plateformes CNAPP, outils de gestion de vulnérabilités). Proposer une stratégie d'intégration de ces outils, dans l'écosystème existant en adéquation avec les objectifs de sécurité et les contraintes opérationnelles. Analyse et Préconisation d'Intégration CI/CD : Analyser en profondeur les chaînes CI/CD existantes (outils, pipelines) afin d'identifier les points d'intégration optimaux pour les solutions de sécurité applicative. Préconiser un mode d'intégration technique et organisationnel qui minimise l'impact sur les développeurs tout en maximisant la détection des vulnérabilités. Préparation du Cahier des Charges pour Appel d'Offres : Sur la base des analyses et recommandations, élaborer un cahier des charges détaillé pour le lancement d'un appel d'offres auprès des éditeurs de solutions de sécurité applicative. (EN OPTION) Un deuxième volet pourra consister à implémenter la solution : Conception, Configuration et Optimisation des Outils : Accompagner les équipes techniques dans la conception (HLD, LLD), la mise en œuvre et la configuration initiale de la solution. Définir les meilleures pratiques de configuration des outils retenus pour optimiser la pertinence des résultats (réduction des faux positifs, priorisation des vulnérabilités critiques). Définition des Processus de Traitement des Vulnérabilités : Proposer des mécanismes de tri, de priorisation, de qualification et de suivi des vulnérabilités, en tenant compte de la capacité de correction des équipes de développement. Élaborer des processus clairs et efficaces pour le traitement des "findings" (vulnérabilités détectées) par les développeurs. Mettre en place des indicateurs de suivi de la remédiation. Transfert de Compétences et Formation : Assurer la formation et le transfert de compétences auprès de l'architecte, de l'exploitant et de l'ingénieur gouvernance en charge des sujets de sécurité applicative. Exemples de livrables produits : Rapport d'analyse du contexte, de la chaîne CI/CD, des besoins en sécurité applicative et de veille technologiques sur les solutions pouvant y répondre Document de recommandations stratégiques et techniques pour le choix et l'intégration des outils SAST/DAST/ADR Architecture cible et plan d'intégration détaillé dans les chaînes CI/CD, documentation des processus de gestion et de traitement des vulnérabilités Préparation à l'appel d'offre : cahier des charges, proposition d'un environnement de POC et du cahier de test Documentation des processus de gestion et de traitement des vulnérabilités Accompagnement et ateliers de transfert de compétences aux équipes internes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
4599 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois