L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 120 résultats.
Mission freelance
Data Engineer (H/F)
Publiée le
Git
Google Cloud Platform (GCP)
2 ans
100-435 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."
Mission freelance
Data Engineer Databricks (F/H)
Publiée le
Databricks
1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Mission freelance
Expert Dév Python &IA ML- MLOps Sparrow
Publiée le
Amazon S3
API
API Platform
12 mois
550-660 €
Île-de-France, France
Télétravail partiel
Objectif : industrialiser les projets IA du développement à la mise en production via une approche MLOps complète et intégrée . ⚙️ Composants principaux Sparrow Studio Environnement code-first pour data scientists / analysts Stack : Go , Kubernetes, ressources dynamiques GPU/CPU Sparrow Serving Déploiement de modèles IA (API / batch) MLOps, monitoring, compliance Stack : Go , Kubernetes-native Sparrow Flow (poste concerné) Librairie propriétaire Python (cœur du framework MLOps Sparrow) Automatisation complète des pipelines IA (Docker, API, packaging, compliance, déploiement) Niveau technique avancé – forte exigence en Python backend Sparrow Academy Documentation, tutoriels, support utilisateurs Sparrow 🧠 Missions principales Prendre l’ ownership technique de la librairie Python Sparrow Flow Concevoir, maintenir et faire évoluer le framework MLOps interne Garantir la qualité, la performance et la scalabilité du code Participer à la définition des orientations techniques avec les leads Collaborer avec les équipes architecture, infrastructure et data science Contribuer à la documentation technique (Sparrow Academy) 💻 Environnement technique Langages : Python → Sparrow Flow Go → Sparrow Serving & Studio Terraform → Infrastructure Infra & Cloud : Cloud privé on-premise Kubernetes (déploiement & orchestration) S3 / MinIO / PX (Portworx) Argo, ArgoCD, Argo Workflows (CI/CD) Autres outils : Git, Artifactory, Model Registry Prometheus, Kibana PostgreSQL, MongoDB
Mission freelance
Data analyst Tracking Specialist -Product analyst
Publiée le
Analyse
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 4 ans et plus Métiers Fonctions : WEB Design, Marketing & Communication digitale, Analyst Spécialités technologiques : RGPD Compétences Technologies et Outils Google Analytics Google Tag Manager Nous sommes à la recherche pour un de nos clients d'un profil data analyst avec une expertise sur la mise en place de tag via GTM et le tracking de données via G4. MISSIONS Expertise recherchée : la rédaction des éléments de tracking, la recette de leur bonne implémentation ainsi que l’utilisation avancée de GTM (google tag manager) Le client est un grand groupe composés de différentes entreprises, les sites de certaines de ces entreprises ont subi des refontes nottemment sur des sujets de consentement (bannières RGPD) et les marques ont besoin de tracker de parcours utilisateurs/clients pour voir ce qui est performant ou non. Tâches procipales : - Integration des tags media - demande sur GTM - Création d'elements d e-tracking sur gA4 et contentsquare - Analyse des données
Offre d'emploi
Expert ServiceNow CMDB. Remise à plat d'un parc IT
Publiée le
60k-70k €
Paris, Île-de-France
Télétravail partiel
Au sein de la Division Workplace de la DSI d'un grand groupe industriel, le service Gestion de Parc pilote le cycle de vie des équipements utilisateurs (PC, écrans, accessoires). La multiplication de projets a dégradé la qualité du référentiel. Nous recherchons un expert ServiceNow pour remettre à niveau la CMDB et structurer durablement les processus et intégrations associées, en coordination étroite avec le Responsable Gestion de Parc. > Important : il ne s'agit pas d'un poste de data analyst. La mission requiert une maîtrise avancée de ServiceNow (CMDB/Discovery/Intégrations). Missions principales * Assessment & cadrage CMDB * Réaliser un health check de la CMDB (couverture, duplications, obsolescences, conformité au CSDM). * Recommander une cible de modèle et de gouvernance (classes CI, attributs, relations, règles de réconciliation). * Remédiation & fiabilisation des données * Croiser et analyser les sources SCCM/Intune, Nexthink, Active Directory et ServiceNow. * Concevoir les jeux d'import (Import Sets, Transform Maps) et les règles de dédoublonnage/reconciliation. * Produire les fichiers d'injection conformes au template fourni par l'équipe Gestion de Parc. * Discovery & intégrations * Paramétrer/optimiser ServiceNow Discovery (MID Servers, credentials, schedules, patterns) et, selon périmètre, Service Mapping. * Mettre en place/fiabiliser les intégrations avec SCCM/Intune, Nexthink et AD (IntegrationHub, API, plan de charge). * Processus & automatisation * Normaliser les workflows de cycle de vie (onboarding/offboarding, mouvements, retrait) et la gouvernance CMDB. * Mettre en place des rapports & tableaux de bord (KPI qualité de données, taux de découverte, complétude). * Coordination & conduite du changement * Conduire la campagne d'audit auprès des directions/services ciblés (liste fournie) et organiser les relances. * Assurer la restitution (reporting d'avancement, synthèse des écarts, plan de remédiation) et former les référents. Livrables attendus * Rapport d'assessment CMDB (constats, cartographie des sources, CSDM target, gouvernance). * Plan de remédiation détaillé (priorités, quick wins, backlog). * Fichiers d'injection conformes + configuration des Import Sets/Transform Maps et règles de reconciliation. * Paramétrage Discovery documenté (MID, scopes, schedules) et matrice d'intégration avec SCCM/Int
Offre d'emploi
Chef de projet SI - Responsable FinOps
Publiée le
Cloud
FinOps
Mainframe
3 mois
40k-45k €
400-600 €
Nantes, Pays de la Loire
Télétravail partiel
Client: secteur bancaire. Au sein du Pôle Excellence opérationnelle, vous intégrez l’équipe Activités transverses du Domaine CTO sur l’activité de maîtrise des coûts du run. Vous aurez à piloter une équipe constituée d’un expert en capacité sur leur Mainframe et un Data analyst et à embarquer les 150 produits. En tant que Chef de projet SI - Responsable FinOps , vous intervenez sur l’ensemble des SI gérés du pole SI de la banque et avez pour mission de garantir la bonne maitrise des coûts du Run des ressources matérielles et logicielles nécessaires au fonctionnement des SI. Votre mission s’étend sur le système distribué, Cloud & Mainframe. Vos principales activités sont : · Analyser les sources d'information (Coprice, factures, FinOps Cloud public, licences) · Accompagner et challenger les projets dans la définition des charges de Run des évolutions à développer · Identifier des gisements de coûts à maîtriser / optimiser, définir les plan d’actions d’optimisation & estimer leur ROI · Piloter l’ensemble des travaux proposés et validés en comité de maîtrise des coûts du run · Mettre en place les outils et tableaux de bord nécessaires, ainsi que leur déploiement pour les utilisateurs et dans les instances concernées (ex : Comité Produit One Team) · Gérer et animer la communication auprès des équipes et des différentes instances, la relation sur ce périmètre avec les autres entités internes (La direction financière, l’Architecture, l'usine, les plateformes) · Préparer le bilan annuel de son activité et construire / argumenter ses demandes au PIA A+1 · Préparer / animer / faire le CR du comité de pilotage maîtrise des coûts du run.
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Mission Longue de Consultant Snowflake
Publiée le
Architecture
AWS Cloud
Azure
3 mois
180-680 €
Paris, France
Télétravail partiel
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Demande de renseignements sur l'état du marché de l'assistance informatique ,
- Facturation électronique 03 : Revenir aux règles de base de la facturation.
- Apport d'affaires : pieges à éviter
- Quel est l'état du marché de l'assistance informatique en ile de france ?
- Mission en perspective, contrat pourri
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
120 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois