Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Architecte Opérationnel Cloud Public – GCP
Missions principales : • Concevoir et documenter les architectures opérationnelles GCP (Compute, stockage, réseau, sécurité, supervision). • Définir les bonnes pratiques de design cloud (patterns, standards, guides). • Réaliser des POC techniques et valider les solutions en environnement hybride (on-prem et cloud). • Garantir l’intégration avec le SI existant : DNS, Active Directory, bastion, fédération d’identité. • Contribuer aux études d’impacts et recommandations FinOps pour la maîtrise des coûts. • Participer aux revues de conception, aux comités techniques et à la gouvernance Cloud.

Mission freelance
Data Ingénieur cloudera
Data Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... .

Mission freelance
Product Owner Plateforme Data Audiovisuel
Bonjour, Nous recherchons pour notre client grand compte un Product Owner Plateforme Data Audiovisuel. Nous étudions prioritairement les candidatures adressées à freelance à insyco . fr avec : Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous Un CV à jour au format Word Une date de disponibilité Un tarif journalier Merci d’indiquer la référence MDE/PO/4914 dans l'objet de votre message Vos responsabilités : Définir la feuille de route du projet, le périmètre et le calendrier des livraisons en accord avec les parties prenantes Veiller au bon déroulement des projets, au respect des délais et des budgets Planification du Maintien en Condition Opérationnel de la plateforme et les processus opérationnels pour l’ingénierie de la fiabilité des sites (SRE) Collaboration avec l’équipe technique : ingénieurs, développeurs, analystes data et les autres membres de l'équipe pour assurer une exécution fluide du projet et participer aux rituels agiles des équipes Définir et suivre les indicateurs de performance clés (KPIs) pour évaluer la charge, capacité des équipes et le suivi des livraisons pour les différentes équipes Identifier les risques et mettre en place des plans de contingence pour minimiser l'impact sur le projet Identifier et mettre en œuvre des actions d’amélioration continue (processus, outils, pratiques) et mettre en place et gérer une base de connaissances de projets pour capitaliser sur les leçons apprises et favoriser le partage des meilleures pratiques Fournir des mises à jour régulières sur l'état du projet aux parties prenantes et à la direction et assurer la mise en place et le déroulement des réunions de suivi. Fournir une formation et un soutien aux utilisateurs finaux sur les meilleures pratiques en matière de gestion des données Utilisation de Jira et Confluence Utilisation des méthodologies Agiles (SCUM, Kanban, Lean) Connaissance des process ITIL Connaissance de l’environnement Cloud GCP (une certification est un plus) Excellentes compétences en gestion de projet, y compris la planification, l'organisation, la gestion du temps et la résolution de problèmes Excellentes compétences en gestion de produits, suivi et roadmap Excellentes compétences en communication écrite et verbale en français et en anglais, et savoir discuter dans des situations tendues Excellente compétence dans l’animation de communauté d’utilisateurs Autonomie et capacité à gérer plusieurs tâches et équipes métier simultanément Une expérience préalable de gestion de projet avec des équipes DevOps

Offre d'emploi
Data Engineer
Dans le cadre d’un projet industriel d’envergure nationale, nous recherchons un Data Engineer / Data Manager pour accompagner la mise en place et le suivi des processus de production de données au sein d’équipes techniques et métiers. La mission allie coordination, support utilisateur, data management et reporting opérationnel dans un environnement à forte exigence qualité. Vos missions principales : Animation & coordination : • Appuyer le Data Manager projet dans la coordination des contributeurs métiers • Suivre la qualité et la complétude des données d’entrée nécessaires aux traitements • Produire des KPI d’avancement et des reportings réguliers • Participer à l’animation du processus de production et aux réunions de suivi Administration & exploitation de l’application métier : • Paramétrer, administrer et superviser l’application • Exécuter les traitements, injections et extractions de données • Gérer les habilitations, l’archivage et les accès utilisateurs Support & accompagnement : • Assurer le support fonctionnel niveau 1 & 2 et le suivi des incidents • Contribuer au plan de contrôle interne des habilitations • Participer à la recette fonctionnelle : planification, organisation, PV de validation Documentation & capitalisation : • Rédiger et maintenir la documentation technique et fonctionnelle • Créer des fiches d’assistance, manuels utilisateurs et procédures • Participer à l’accompagnement au changement et à la diffusion des bonnes pratiques Profil recherché : • Expérience confirmée en Data Management, Data Engineering ou MCO applicatif • Bonne maîtrise des outils : Power BI, Jira, ServiceNow, Excel, Office 365, Netvibes • Langages : SQL, Python, PowerQuery, DAX, JSON, XML • Connaissance des environnements industriels ou projets techniques complexes • Compétences en recette, support, reporting et coordination multi-acteurs Soft skills : • Leadership naturel, rigueur, pédagogie • Esprit d’analyse et de synthèse • Excellent relationnel, diplomatie et sens du service Les + de la mission : • Projet structurant dans un contexte industriel stratégique • Équilibre entre technique, coordination et accompagnement métier • Équipe collaborative et dynamique

Offre d'emploi
Data Engineer
Contexte Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Un pipeline initiale de structuration des connaissances a été établi, mais doit maintenant être industrialisé pour une exécution fiable, scalable et maintenable. Objectif de la mission Development des pipelines d'ingestion, transformation et alimentation de la base de connaissance, tout en assurant le versioning et la traçabilité des traitements.

Offre d'emploi
Data Product Manager
Mission principale Conduire une étude stratégique Data dans le périmètre Construction Chemicals chez Saint-Gobain. Jouer un rôle de chef d’orchestre entre le business, l’IT et les équipes data pour cadrer le besoin, organiser le projet et préparer son exécution. Responsabilités clés Cadrer et organiser l’étude : identifier les acteurs, collecter les besoins, animer les ateliers avec les métiers. Analyser les processus business et IT (globaux et régionaux). Formaliser une architecture fonctionnelle et une feuille de route projet (planning, budget, organisation). Coordonner les experts Data & Analytics (architecte, ingénieurs BI, etc.). Communiquer avec des interlocuteurs de haut niveau (C-level) et présenter clairement les résultats. Préparer la bascule en phase de projet (“Go to project”). Compétences attendues Communication bilingue (français/anglais) avec dirigeants. Planification stratégique et organisation multi-régions. Maîtrise des concepts et outils Data/BI (Agile, CI/CD, gouvernance, MDM, architecture). Connaissance des systèmes ERP (SAP), CRM (Salesforce), MES et supply chain (atout). Forte orientation client, capacité à conduire des interviews et synthétiser rapidement. Profil recherché Senior/Expert, avec expérience confirmée dans la conduite de projets data stratégiques à dimension internationale.

Mission freelance
Business Analyst – BI
Pour l'un de nos clients du secteur bancaire, nous recherchons un Business Analyst BI. PROJET : - Recueil et formalisation des besoins métiers. - Conception et rédaction de spécifications fonctionnelles BI (indicateurs, dimensions, modèles de données). - Capacité à challenger les besoins métiers et à proposer des solutions pragmatiques. - Rédaction de documentation fonctionnelle et utilisateurs. - Tests fonctionnels et validation des développements BI. METIER : - Bonne connaissance des environnements BI et Data. - Compréhension des processus de gestion de la donnée en environnement bancaire/financier (sécurité financière) - Maîtrise de SQL. ANGLAIS : excellent niveau.

Offre d'emploi
DATA ENGINEER AZURE / DATABRICKS F/H | MARIGNANE (13)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Configurer, structurer, déployer Azure Data Lake et DataBricks Développer et industrialiser des pipelines d’ingestion robustes sur Apache NiFi à partir des différentes sources, en tenant compte des contraintes techniques (mémoire, réseau…) Mettre en place et maintenir une instance Unity Catalog pour renforcer la gouvernance et permettre le Data self-service Environnement Technique : Azure Data Lake, Databricks, Apache NiFi, Unity Catalog, Python, Pyspark, SQL Le poste est basé en périphérie de Marignane (13) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration. Vous devez impérativement être véhiculé.e pour pouvoir accéder sur site.

Offre d'emploi
Data Engineer orienté DevOps
- Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python

Mission freelance
Consultant Data
Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.

Mission freelance
Data engineer Python & SQL H/F
Pour l'un de nos clients dans le secteur de la prévention qui déploie un Saas, nous recherchons un profil hybride Data Engineer/Chef de projet technique: Comprendre les besoins en termes de données de différents corps de métiers (professionnels de santé, ingénieurs de prévention, gestionnaires de facturation ...) Analyser et comprendre l’état et la structuration de la donnée de différents métiers (ex: professionnels de santé, gestionnaires de facturation... ) dans les anciennes bases de données des clients Remonter les besoins d’amélioration technique complexe à la squad plateforme intégrée à l'équipe d'intégration en fonction des cas d’usages clients rencontrés Participer à la prise de décision pour nettoyer et traduire ces données dans la solution Mettre à jour le pipeline de données pour récupérer ces données et les injecter dans notre logiciel (grande diversité de données : + de 250 informations différentes, avec jusqu’à plusieurs millions de points de données pour certaines informations) Assurer que le pipeline soit robuste, testé et permettre un maximum de traçabilité sur les traitements subis par la donnée et les incohérences détectées (python + SQL), tout en étant réutilisable Assurer la maintenance et l’évolution de la base de données du produit, en discutant avec les équipes produits pour s’assurer de continuer à reprendre toutes les données disponibles Travailler en collaboration avec les référents métiers ainsi qu’avec les clients des différents métiers (professionnels de santé, gestionnaires de facturation, etc.) Communiquer de manière exemplaire au cours du projet pour assurer un reporting régulier

Offre d'emploi
Ingénieur DevOps Cloud H/F
Contexte Pour l’un de nos clients grands comptes nantais, nous recherchons un Ingénieur Cloud / DevOps afin de renforcer les équipes en charge de la transformation Cloud et de l’automatisation des environnements. Vos missions Participer à la mise en place et à l’industrialisation des environnements Cloud (AWS, Azure ou GCP) Automatiser les déploiements via Infrastructure as Code (Terraform, Ansible, CloudFormation…) Intégrer et maintenir des pipelines CI/CD (GitLab CI, Jenkins, GitHub Actions…) Contribuer à la sécurisation et à la supervision des plateformes (monitoring, alerting, observabilité) Collaborer avec les équipes projets et développement pour fluidifier le delivery et garantir la fiabilité des environnements Participer aux choix d’architecture et à la mise en place des bonnes pratiques DevOps Assurer une veille active sur les technologies Cloud & DevOps pour proposer des améliorations continues Winside Technology est une ESN Tech & Digital présente à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Créée en 2020, nous réunissons aujourd’hui plus de 250 consultants, accompagnons plus de 50 clients grands comptes et avons réalisé 30 M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective.

Offre d'emploi
Technicien support applicatif Intégration de données- La Défense (H/F)
🎯 Contexte Dans le cadre du maintien en conditions opérationnelles de nos solutions TEM , nous recherchons un Technicien support applicatif afin de renforcer l’équipe RUN . L’objectif principal est d’assurer l’intégration et la fiabilité des données clients dans l’application. 📌 Objectifs et tâches principales Vos missions seront les suivantes : Générer des fichiers à intégrer en base à partir des portails opérateurs. Intégrer en base les données de parc et de facturation. Lancer des batchs et assurer le suivi des traitements. Effectuer des requêtes SQL pour extraction, injection ou correction en masse. Mettre à jour les référentiels et contrôler la cohérence des données visibles dans l’application client. Assurer le contrôle des intégrations automatisées. 📑 Livrable attendu Dossier d’exploitation documentant les intégrations et traitements réalisés. 🛠️ Compétences techniques requises Unix – Confirmé – Impératif SQL – Confirmé – Impératif Excel – Confirmé – Impératif
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Offre d'emploi
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Mission freelance
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M
Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.