Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 407 résultats.
Freelance

Mission freelance
Ingénieur d'exploitation sécurité (Security Operations Engineer)

Publiée le
Administration réseaux
ASM
Check Point

6 mois
400-550 €
Massy, Île-de-France
Télétravail partiel
Le SOE est garant du bon fonctionnement des solutions opérationnelles de sécurité périmétrique de nos clients, il est l’interlocuteur privilégié du client final, sur les questions techniques, dans ce cadre il contribue à la satisfaction globale du compte. Il est responsable du Maintien en Condition Opérationnel et du Maintien en Condition de Sécurité de l’infrastructure client, définie au contrat. Le SOE est responsable du traitement des tickets (incidents, change, problème, release, information), lorsqu’ils sont transmis au niveau 2. Il assure la gestion du niveau 3 en coordination avec les partenaires internes et externes. Il peut être amener à organiser et gérer des réunions de crise, et fournir les rapports et compte rendus nécessaires. Le SOE fournit des conseils techniques, d’organisation auprès de nos clients, sur les solutions sécurité, cyber défense, dans ce cadre il peut être amené à organiser et à mener des comités d’exploitation, des réunions de suivi de projet. Le SOE évolue au sein du Security Operations Center, dans ce cadre, il aura la responsabilité technique de plusieurs comptes, et contribuera à l’évolution de l’équipe. Le SOE accompagne l’équipe commerciale, lors de nouvelles propositions Le SOE participe à l’intégration ou l’évolution de solutions, soit avec les équipes projets, soit de façon autonome Il veille au bon respect des délais et à la qualité des livrables Il assure la qualité du service rendu et le respect du contrat : S'assurer du respect des engagements et procédures définis par le contrat de service, sur son périmètre en coordination avec les autres acteurs du compte Garantir le bon fonctionnement des prestations et des demandes clients selon les conditions des contrats Proposer et organiser les prestations complémentaires Coordonner et participer aux comités périodiques d'exploitation Rédiger les comptes rendus et organiser les actions d'amélioration Sur la base des évolutions du client, il met en œuvre les changements organisationnels nécessaires en particulier sur le niveau 1 : Organise la montée en compétence sur l’environnement client du niveau 1 Initier la mise en place des procédures associées
Freelance

Mission freelance
Software Engineer Sénior JS (H/F)

Publiée le
Azure Kubernetes Service (AKS)
Node.js
Vue.js

2 ans
100-450 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Software Engineer Sénior JS (H/F) à Lille, France. Contexte : ● Expert backend (nodejs), avec une appétence pour le front ● Bases solides en devops (ci/cd, k8s, observabilité ...) ● Connaissances avancées en architecture et en design de logiciel ● Être à l’aise pour travailler dans un environnement agile ● Faire preuve d’une autonomie forte et démontrer une volonté constante de s'améliorer ● Faire preuve de leadership pour animer des sujets au sein de l’équipe, mais aussi prendre le lead sur des sujets cross-équipe ● Avoir un état d’esprit positif, axé sur la résolution de problèmes ● Posséder une aisance en anglais, tant à l’écrit qu’à l’oral. Les missions attendues par le Software Engineer Sénior JS (H/F) : ● Expert backend (nodejs), avec une appétence pour le front ● Bases solides en devops (ci/cd, k8s, observabilité ...) ● Connaissances avancées en architecture et en design de logiciel ● Être à l’aise pour travailler dans un environnement agile ● Faire preuve d’une autonomie forte et démontrer une volonté constante de s'améliorer ● Collaboration au développement : Concevoir et développer des fonctionnalités robustes, en assurant la pérennité technique des projets et en résolvant des problèmes complexes. ● Définition et exécution des tâches : Piloter la définition et le refinement des tâches, en garantissant leur clarté et leur alignement avec les objectifs du projet. ● Application des bonnes pratiques : Définir et appliquer des normes élevées de code et d’architecture, conduire des revues et promouvoir les meilleures pratiques auprès de l’équipe. ● Innovation et amélioration continue : Améliorer les produits et les processus en explorant de nouvelles technologies, outils et méthodologies et en proposant des solutions innovantes pour relever les défis techniques. ● Participation à la prise de décision : Contribuer aux décisions techniques grâce à son expertise et proposer des améliorations et solutions efficaces pour l’équipe. ● Amélioration des compétences : Se tenir à jour sur les technologies pour renforcer ses compétences, anticiper les tendances du marché et innover sur les projets. ● Mentorat et Support de l'Équipe : Assurer le mentorat des membres moins expérimentés de l'équipe, en partageant ses connaissances et favorisant leur développement.
Freelance
CDI

Offre d'emploi
Data Analyste (13)

Publiée le
Confluence
Piano Analytics

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel français. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance de la plateforme de streaming vidéo du groupe. La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existants sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
CDI

Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)

Publiée le
BI
Splunk
SQL

38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Freelance
CDI

Offre d'emploi
Architecte Solution Senior - 2 POSTES OUVERTS ( H/F)

Publiée le
Architecture
oauth2
saml

36 mois
65k-70k €
560-590 €
Paris, France
Télétravail partiel
LENA IT recherche pour l'un de ses clients un(e) Architecte Senior, capable de concevoir et de piloter des architectures robustes, sécurisées et interopérables, dans un environnement exigeant en matière de conformité réglementaire, sécurité des systèmes d’information et interconnexion avec de nombreux partenaires publics et privés. ACTIVITÉS PRINCIPALES / SES MISSIONS CONCEPTION ET COHÉRENCE DU SYSTÈME D’INFORMATION • Concevoir et documenter des architectures (fonctionnelle, logicielle, technique, sécurité, data) modulaires, évolutives et sécurisées dans des environnements hybrides (Cloud privé / Cloud public Azure). • Définir les patterns d’architecture adaptés : micro-services, Event Driven Architecture (EDA), API REST, architecture hexagonale, etc. • Évaluer les solutions techniques proposées par les prestataires et garantir leur conformité avec les principes d’architecture. • Accompagner les équipes projets et techniques dans la mise en place des bonnes pratiques de conception et de documentation. ARCHITECTURE D’AUTHENTIFICATION ET INTEROPÉRABILITÉ (expérience avérée) • Concevoir des solutions d’authentification et de fédération d’identité en s’appuyant sur les standards reconnus : Open ID Connect, OAuth2, SAMLv2, etc. • Collaborer avec les experts sécurité pour garantir la conformité aux exigences réglementaires (RGPD, RGS, etc.). COLLABORATION ET GOUVERNANCE • Travailler en étroite collaboration avec les équipes internes, les partenaires et les intégrateurs. • Participer aux comités d’architecture et aux instances de gouvernance du SI. • Produire des livrables d’architecture clairs, synthétiques et conformes aux standards. VEILLE TECHNOLOGIQUE • Analyser les développements technologiques les plus récents. • Rechercher des solutions innovantes pour l’intégration de nouvelles applications ou la création de nouvelles solutions. COMPÉTENCES TECHNIQUES • Très bonne maîtrise des principes de l’architecture. • Expérience avérée sur les technologies et environnements Cloud Azure, API Management, Micro-services, EDA, containerisation, CI/CD, Data Transactionnelle, Data Analytics … • Connaissance en composants d’infrastructure. • Maîtrise des standards d’authentification : Open ID Connect, OAuth2, SAMLv2. • Expérience avérée sur les sujets liés à la sécurité des systèmes d’information, incluant les problématiques de conformité : RGPD, RGS et la sécurité applicative (gestion des identités et des accès (IAM), chiffrement, sécurisation des API, gestion des secrets…) • Connaissance des outils de modélisation et des Framework d’architecture : TOGAF, UML, ArchiMate… APTITUDES PROFESSIONNELLES • Sens de la confidentialité et éthique. • Rigueur, capacité d’anticipation et sens de la méthode. • Qualités relationnelles et diplomatie dans les interactions avec la direction informatique, les directions métiers, la maîtrise d’ouvrage, la maîtrise d’oeuvre et la sécurité (RSSI). • Qualités rédactionnelles. • Esprit de synthèse et capacité à prioriser les problématiques pour maintenir une vision globale du SI et de la cible à atteindre.
Freelance
CDI

Offre d'emploi
Data Engineer Fullstack (Cloud & On-Prem)

Publiée le
Cloud
Java
Microsoft Power BI

6 mois
40k-50k €
400-590 €
Tours, Centre-Val de Loire
Télétravail partiel
Contexte de la mission : Renfort d’une équipe Data pour intervenir sur des activités de Run, Build, Expertise et Accompagnement , dans un environnement hybride Cloud / On-Premise (cible On-Premise). Principales responsabilités : Participer à la conception technique des produits logiciels. Contribuer à la recherche et à la définition de solutions techniques adaptées. Prendre en charge une partie des développements. Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques, etc.). Collaborer à l’intégration des produits dans le SI en lien avec les architectes Data. Garantir la qualité et la maintenabilité des produits logiciels. Accompagner les métiers dans la mise en œuvre de leurs cas d’usage Data. Compétences obligatoires : Maîtrise de Spark / Java. Maîtrise de Python. Maîtrise du SQL. Expérience sur les services Cloud (stockage, traitement, orchestration, fonctions serverless). Pratique des outils CI/CD (Git, Jenkins, …). Connaissance d’un ETL (type XDI, ODI ou équivalent). Compétences souhaitées : Docker. Terraform. Outils de reporting / dataviz (Power BI, BO, …). Secteur : Tours
Freelance

Mission freelance
Product Lead Data / Directeur projet (Montpellier)

Publiée le
Data governance
Product management

12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Freelance

Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration

6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Freelance

Mission freelance
Tech Lead Data Engineer senior

Publiée le
Apache Spark
Azure
Databricks

12 mois
530-580 €
Paris, France
Télétravail partiel
Vous rejoindrez notre Data Factory dont la mission est de concevoir et de déployer des produits analytiques innovants à destination des magasins, des fonctions support, de la logistique et des consommateurs. Face à la montée en puissance des besoins, nous avons adopté une organisation Agile en Domaines/Squads, avec une forte volonté d’industrialiser nos pratiques pour accélérer les livraisons tout en valorisant notre patrimoine de données. En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. 2. Compétences Techniques Requises Nous recherchons un profil senior avec une expérience d’au moins 2 ans en tant que Tech Lead et une certification sur Spark ou Databricks sont exigées. Compétence Expérience minimale demandée : Data Engineering 5 ans Azure 3 ans Architecture Lakehouse 3 ans Databricks 5 ans Spark 5 ans SQL, Python 5 ans Scala 2 ans CI/CD, Azure DevOps 5 ans
CDI
Freelance

Offre d'emploi
Data engineer ETL Airflow

Publiée le
Apache Airflow

3 ans
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement
Freelance
CDI

Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles

Publiée le
Data governance
Databricks
Dataiku

2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
Freelance
CDI

Offre d'emploi
DATA ENGINEERING sur KAFKA

Publiée le
Apache Kafka
API REST
Elasticsearch

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance

Mission freelance
SENIOR DATA ENGINEER SNOWFLAKE - DBT (Azure)

Publiée le
Azure
Azure DevOps
DBT

3 mois
400-650 €
Île-de-France, France
Télétravail partiel
Notre client renforce son équipe Data dans le cadre de l’évolution de sa Data Platform. Au sein d’un environnement moderne et exigeant, vous participerez à des projets stratégiques de modélisation, d’analyse et de valorisation des données. En tant que Senior Analytics Engineer , vous serez intégré à la Data Platform et interviendrez sur l’ensemble de la chaîne de traitement de la donnée. Vos responsabilités incluront : 📊 Modélisation & Transformation de la donnée : Conception des hubs, satellites et links selon l’approche Data Vault 2.0 Développement de modèles dans dbt Cloud (SQL, Python) Création de macros/tests pour la qualité des données Gestion des projets dbt : versioning, documentation, administration des accès 🧩 Architecture & Data Engineering : Étude des architectures existantes et proposition d’optimisations Création et gestion des objets Snowflake (tables, vues, rôles, sécurité) Optimisation des performances des bases de données 📈 Data Visualisation : Création, évolution et maintenance des modèles sémantiques dans Power BI Développement de rapports avancés et intégration des mesures DAX Mise en œuvre du Row-Level Security Adaptation des métadonnées pour les filiales internationales 🔄 CI/CD & Qualité : Participation aux processus CI/CD via Azure DevOps Suivi des performances, contrôle qualité et automatisation des pipelines
Freelance

Mission freelance
Data Engineer AWS senior

Publiée le
AWS Cloud
Python
SQL

12 mois
570-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS senior" pour un client dans le secteur de l'Energie Description 🧩 Contexte de la mission Dans le cadre du renforcement de son équipe Data, notre client recherche un Data Engineer AWS Senior capable de concevoir, maintenir et optimiser les pipelines de données critiques de la plateforme analytique. La mission s’inscrit dans un environnement cloud AWS, au cœur de la transformation data et de l’industrialisation des flux d’ingestion, de traitement et d’exposition des données. 🎯 Objectifs et livrables 🔹 Responsabilités principales : Concevoir, développer et maintenir des pipelines de données ETL/ELT robustes et scalables. Travailler principalement en Python pour manipuler, transformer et automatiser les flux d’ingestion de données. Gérer les workflows SQL et concevoir des modèles de données relationnels sur PostgreSQL. Exploiter les services AWS (Lambda, Step Function, EC2, S3, Glue, etc.) pour l’orchestration et la livraison des données. Collaborer étroitement avec les équipes backend et data consumers pour assurer la cohérence des intégrations et des APIs. Mettre en œuvre des processus de monitoring, test et optimisation des systèmes de données afin de garantir performance, fiabilité et sécurité. Contribuer activement à l’amélioration continue de l’architecture et des bonnes pratiques techniques (code review, automatisation, documentation).
Freelance

Mission freelance
AWS Cloud Engineer – Luxembourg

Publiée le
AWS Cloud

6 mois
400-450 €
Luxembourg
Télétravail partiel
Details de la Mission : Vous interviendrez sur la gestion et l’optimisation de l’environnement AWS Cloud. Votre rôle consistera à garantir la performance, la stabilité et la scalabilité des infrastructures cloud. Vous participerez également à la mise en place de solutions d’automatisation , à la supervision des environnements , ainsi qu’à l’ amélioration continue des processus DevOps . Compétences requises Expertise confirmée sur AWS (EC2, S3, Lambda, CloudFormation, IAM, etc.) Expérience significative en gestion et optimisation d’infrastructures Cloud Connaissance des bonnes pratiques DevOps Bon niveau d’anglais (environnement international)
407 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous