Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 213 résultats.
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI

3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
CDD
CDI
Freelance

Offre d'emploi
Chef de projet MOE pilotage des projets informatiques

KEONI CONSULTING
Publiée le
ALM
Reporting
Scrum

18 mois
20k-60k €
100-400 €
Paris, France
CONTEXTE Le Chef de projet MOE assure le pilotage des projets informatiques de son domaine (majoritairement régime, projets inter-régimes) de la définition des besoins au déploiement de la solution. Il intervient en tant que garant de la réussite du projet et interface principale entre la maîtrise d'ouvrage, les équipes de développement et les directions métier. MISSIONS Activités de pilotage et de coordination : • Piloter et coordonner les développements des applications et des projets informatiques ; • Gérer et organiser les ressources (délais, coûts, équipes) affectées aux projets ; • Planifier les activités et assurer le suivi de l'avancement des projets à l'aide d'outils de gestion de projet (Gantt, JIRA, Redmine, etc.) ; • Identifier les difficultés, les risques et proposer des solutions adaptées ; • Garantir le respect des délais, des coûts et de la qualité des livrables ; • Animer les réunions de projet et les comités de suivi ; • Participer à la gouvernance des projets (comités de projet, comités de pilotage) ; • Préparer les supports de présentation pour les réunions et les comités de pilotage ; • Assurer le reporting régulier auprès de la direction de la DSI et des directions métier. Activités de conception et d'analyse : • Assister la maîtrise d'ouvrage dans la définition et la formalisation de leurs besoins ; • Assurer la cohérence des besoins exprimés avec l'architecture existante et la stratégie d'évolution du système d'information ; • Rédiger les spécifications fonctionnelles générales et détaillées des développements informatiques ; • Définir la conception technique générale des solutions à mettre en œuvre ; • Évaluer les besoins en termes de personnel, de compétences techniques, de temps de travail, de plannings et de budget nécessaire ; • Évaluer les risques techniques, fonctionnels et organisationnels du projet ; • Proposer des solutions alternatives en cas de contraintes ou de blocages. Activités de réalisation et de supervision technique : • Superviser les activités de développement réalisées par les développeurs de l'équipe ; • Assurer le codage de programmes informatiques complexes ou critiques en Java / Spring Boot et en respectant les patterns d'architecture microservices ; • Valider la qualité technique des développements réalisés (revues de code, respect des standards) ; • Superviser les échanges de données avec le système Mainframe SLIMFAST et les partenaires externes (SNGI, DSN, inter-régimes) ; • Réaliser ou superviser les tests unitaires et d'intégration des développements ; • Rédiger ou valider les documents techniques de programmation et la documentation applicative. Activités de mise en œuvre et d'accompagnement : • Organiser la mise en production et l'intégration des solutions dans le système d'information en place ; • Coordonner les activités de recette technique et fonctionnelle avec la maîtrise d'ouvrage ; • Organiser et superviser la maintenance corrective, évolutive et adaptative des applications ; • Concevoir ou superviser la rédaction des notices d'installation et des guides utilisateurs ; • Préparer les supports de formation et conduire ou superviser les sessions de formation destinées aux utilisateurs ; • Suivre les utilisateurs dans leur appropriation des logiciels livrés ; • Participer à l'amélioration continue des processus et des méthodes de travail dans le cadre de la politique qualité. Activités de gestion d'équipe : • Encadrer et animer l'équipe projet (développeurs, analystes) ; • Répartir les tâches et arbitrer les priorités au sein de l'équipe ; • Suivre l'avancement des travaux et la charge de travail de chaque intervenant ; • Assurer la montée en compétences des membres de l'équipe. Compétences techniques requises Méthodologies et gestion de projet : • Maîtrise des méthodologies de gestion de projet : Cycle en V, méthodes Agiles (SCRUM, Kanban) ; • Maîtrise des outils de gestion de projet : Gantt Project, Redmine, Mantis, JIRA ou équivalents ; • Connaissance d'une méthode d'analyse de gestion : MERISE ou équivalent ; • Connaissance des référentiels de bonnes pratiques : ITIL, PMI ou équivalents constituant un atout. Langages et technologies de programmation : • Maîtrise d'au moins deux des langages suivants : Java / Spring Boot, React / TypeScript, Python / Bash ; • Maîtrise du langage SQL et connaissance de la base de données relationnelle PostgreSQL et de la gestion des migrations via outils de migration de schémas de base de données ; • Connaissance de Python ou d'autres langages de scripting constituant un atout ; • Connaissance des langages de script Bash / Python constituant un atout. Environnement technique Azure / Microservices : • Maîtrise de l'environnement Azure / CI-CD : Microsoft Azure (services d'orchestration de conteneurs et de registre d'images), Docker / Kubernetes, outils de CI/CD, déploiement GitOps ; • Utilisation des AGL : environnements de développement intégrés (IDE) et outils de gestion de code source ; • Connaissance des outils de gestion des impressions : outils de monitoring, logging, observabilité et sécurité DevSecOps. Environnement technique Microsoft et Cloud : • Maîtrise de l'environnement bureautique Microsoft : Windows, Office 365 (Word, Excel, PowerPoint, Teams, SharePoint) ; • Maîtrise de l'environnement Microsoft Azure et ses principaux services (orchestration de conteneurs, registre d'images, gestion des secrets, API Management) ; • Connaissance des outils de déploiement : déploiement GitOps, packaging Kubernetes constituant un atout. Bases de données et fichiers : • Maîtrise de la base de données relationnelle PostgreSQL et des migrations outils de migration de schémas de base de données ; • Connaissance d'autres bases de données (MS SQL Server, PostgreSQL, etc.) constituant un atout ; • Connaissance des outils de sécurité : outils de gestion des secrets et de scan de vulnérabilités (gestion des secrets et scan de vulnérabilités). Outils et méthodologies : • Maîtrise des outils de gestion de versions (Git, SVN, etc.) ; • Connaissance des outils de gestion du cycle de vie des applications (ALM - Application Lifecycle Management) constituant un atout. Connaissance sectorielle souhaitée : Le profil proposé devra, de préférence, disposer d'une connaissance du secteur de la protection sociale et notamment du domaine de la retraite. À défaut, une expérience dans un secteur assimilé (assurances, banques, mutualité) sera valorisée. Livrables associés • Spécifications fonctionnelles générales et détaillées ; • Dossiers de conception technique générale et détaillée ; • Plans de management de projet (planning, budget, ressources, risques) ; • Dossiers de conception technique des évolutions complexes réalisées directement par le chef de projet ; • Plans de tests et cahiers de tests unitaires et d'intégration ; • Supports d'atelier métier pour la spécification du besoin ; • Tableaux de bord de suivi de projet et indicateurs d'avancement (délais, coûts, qualité) • Comptes rendus de réunion et de comités de pilotage ; • Documentation applicative (guides utilisateurs, notices d'installation, manuels techniques) ; • Supports de formation utilisateurs ; • Bilans de projet et retours d'expérience.
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
CRM
Figma
Microsoft Power BI

3 mois
Val-de-Marne, France
Contexte Mon client recherche dans la continuité du développement de l'écosystème Digital, un UI//UX Data Designer, ils poursuivont la construction du pilier décisionnel : DataHub Mission Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. Comprendre les besoins et les enjeux à piloter ? Comprendre les connaissances nécessaires pour le pilotage et la décision Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… Concevoir / produire les éléments de design pour répondre au besoin conception Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) Produire les maquettes Power BI Conception / réalisation des outils de pilotage pour les différents enjeux / métiers Réalisation des éléments design Réalisation des éléments Power BI dessinés Réalisation des maquettes / reportings PBI dynamiques Enrichissement et gestion de nos dictionnaires design system Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Modalité de la Prestation Livrables Design system – éléments de conception UIUX Design system – composants Power BI dessiné Reportings/Maquettes Power BI dynamique Cahiers des charges / CR / Dictionnaires Présentation / Documentation Technique Figma Power BI / DAX Cloud Azure Databricks SQL Python, Spark, Scala Spyder…
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Offre premium
CDI
Freelance

Offre d'emploi
Administrateur Datadog

Lùkla
Publiée le
Datadog

3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Freelance

Mission freelance
Ingénierie en sécurité Opérationnelle

Sapiens Group
Publiée le
Google Cloud Platform (GCP)
IAM

1 an
Paris, France
Contexte et détails de la mission Objectif global : Accompagner la sécurisation du Cloud public réglé. Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maîtrise de l'IAM et de l'automatisation, de Terraform et des chaînes CI/CD. Compétences techniques requises IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Développement Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Anglais Professionnel - Impératif Description détaillée Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes aux règles de sécurité, incluant la gestion des identités, des accès et des permissions. Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. Mise en œuvre des meilleures pratiques et contrôles au travers d'outils tels que AWS SCP, GCP Deny Policy et autres. Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. Documenter les processus, les configurations et politiques mises en place. Profil recherché Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Freelance

Mission freelance
POT9060 - Un Testeur Senior / Ancien Développeur à Paris

Almatek
Publiée le
Java

6 mois
320-350 €
Paris, France
Almatek recherche pour l'un de ses clients, Un Testeur Senior / Ancien Développeur à Paris Nous recherchons un testeur confirmé/senior, doté d’une solide expertise technique, capable de challenger les développeurs et de contribuer activement à la qualité des livrables. Vous interviendrez au sein d’une équipe passionnée par la technologie, où l’exigence et l’innovation sont au cœur des projets. Il faut que le profil soit un ex développeur. L'équipe utilise principalement les technologies JAVA et Python, il est donc fortement conseillé de maîtriser ces langages dans un environnement cloud Azure et AWS. Responsabilités principales : Concevoir, exécuter et automatiser des scénarios de tests complexes. Identifier les anomalies dans le code, analyser les causes et proposer des solutions. Collaborer étroitement avec les développeurs pour garantir la robustesse et la performance des applications. Participer à la définition des bonnes pratiques de test et à l’amélioration continue des processus qualité. Être force de proposition pour anticiper les risques et optimiser la couverture de tests. Profil recherché : Expérience significative en tests techniques (tests automatisés, tests d’intégration, tests de performance). Maîtrise des outils et frameworks de test (ex. : Selenium, Cypress, JMeter, etc.). un + : compétences en langages de programmation (Java, Python, ou équivalent). Capacité à challenger les choix techniques et à dialoguer avec des équipes de développement exigeantes. Esprit critique, rigueur et sens du détail. Environnement : Équipe dynamique et technophile, orientée innovation et qualité. Méthodologie Agile / DevOps
Freelance

Mission freelance
Ingénieur Cloud Data plateforme

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake

12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Freelance

Mission freelance
Administrateur Kubernetes (450€ max)

BEEZEN
Publiée le
Kubernetes

6 mois
330-450 €
Île-de-France, France
La prestation consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes opérées par l’équipe. Elle s’inscrit dans un contexte de production exigeant, nécessitant une forte autonomie sur les environnements cloud ainsi qu’une bonne maîtrise de l’écosystème Kubernetes et de ses outils. ● Gérer pods, services, ingresses et namespaces “infra”, et appliquer les bonnes pratiques sur les manifests applicatifs. ● Provisionner AKS/GKE et les ressources cloud via Terraform, en s’alignant sur les standards CSP. ● Industrialiser les déploiements as code avec GitLab CI/CD et ArgoCD. ● Faciliter le time-to-market des équipes (certifi cats, DNS, observabilité, enablement fonctionnalités). ● Opérer les clusters (upgrades K8s et composants, capacity management, PRA). ● Mettre en place le multi-tenant (namespaces, quotas, RBAC, network policies). ● Déployer l’observabilité (Prometheus, Grafana, Loki, centralisation logs). ● Suivre la consommation cloud (Azure Monitor, métriques GCP, dashboards). ● Optimiser les ressources (quotas, scaling, gabarits, extinction de nuit). ● Renforcer la sécurité Kubernetes (policies, RBAC, audit logs). ● Gérer les secrets (Vault, Sealed Secrets, services natifs cloud). ● Appliquer les recommandations RSSI et suivre les pratiques de sécurité. ● Automatiser via scripting (Bash, Python, Go). ● Mettre en place un alerting avancé et proactif. ● Promouvoir une culture SRE (fi abilité, autoscaling, bonnes pratiques CNCF/CAF).
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
testeur confirmé/senior tests techniques (tests automatisés, tests d’intégration et de performance).

WorldWide People
Publiée le
Automatisation
Performance testing

6 mois
360-370 €
Paris, France
testeur confirmé/senior , doté d’une solide expertise technique, capable de challenger les développeurs et de contribuer activement à la qualité des livrables. Vous interviendrez au sein d’une équipe passionnée par la technologie , où l’exigence et l’innovation sont au cœur des projets. Expérience significative en tests techniques (tests automatisés, tests d’intégration, tests de performance). Maîtrise des outils et frameworks de test (ex. : Selenium, Cypress, JMeter, etc.). un + : compétences en langages de programmation (Java, Python, ou équivalent). Capacité à challenger les choix techniques et à dialoguer avec des équipes de développement exigeantes. Esprit critique, rigueur et sens du détail. Il faut que le profil soit un ex développeur. L'équipe utilise principalement les technologies JAVA et Python , il est donc fortement conseillé de maîtriser ces langages dans un environnement cloud Azure et AWS. Responsabilités principales : Concevoir, exécuter et automatiser des scénarios de tests complexes. Identifier les anomalies dans le code, analyser les causes et proposer des solutions. Collaborer étroitement avec les développeurs pour garantir la robustesse et la performance des applications. Participer à la définition des bonnes pratiques de test et à l’amélioration continue des processus qualité. Être force de proposition pour anticiper les risques et optimiser la couverture de tests. Profil recherché : Expérience significative en tests techniques (tests automatisés, tests d’intégration, tests de performance). Maîtrise des outils et frameworks de test (ex. : Selenium, Cypress, JMeter, etc.). un + : compétences en langages de programmation (Java, Python, ou équivalent). Capacité à challenger les choix techniques et à dialoguer avec des équipes de développement exigeantes. Esprit critique, rigueur et sens du détail. Environnement : Équipe dynamique et technophile, orientée innovation et qualité. Méthodologie Agile / DevOps
Freelance
CDI

Offre d'emploi
Senior Engineer Snowflake

VISEO
Publiée le
Cloud
DBT
Snowflake

12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Freelance

Mission freelance
AWS Platform Engineer

Codezys
Publiée le
AWS CloudFormation
Github
Kubernetes

3 mois
400-450 €
Paris, France
Dans le cadre de cet appel d'offres, nous vous proposons une description précise des rôles et responsabilités attendus pour le poste au sein de notre squad Data and Analytics Platform . Cette équipe est dédiée à la gestion et au développement de notre infrastructure data, en assurant la conformité, la sécurité et l'efficacité des solutions déployées. Rôles et responsabilités : Développement, mise à jour et maintenance du code infrastructure : Vous serez en charge de concevoir, mettre à jour et maintenir le code Terraform nécessaire pour nos environnements Azure et/ou AWS, en veillant au respect strict des règles de sécurité internes de TotalEnergies ainsi que des meilleures pratiques du secteur. Enrichissement de la documentation : Vous assurerez la mise à jour régulière de la documentation technique à destination des utilisateurs, afin de garantir une compréhension claire des outils et des processus mis en place. Conception et maintenance de chaînes de déploiement automatisé (CI/CD) : Vous participerez à la conception, à la mise en œuvre et à la maintenance des pipelines CI/CD automatisés, favorisant une livraison rapide et fiable des solutions data. Profil recherché : De formation Bac+5 en informatique ou diplôme équivalent. Vous êtes sensibilisé(e) aux principes de gouvernance, de sécurité et de réglementation relatives aux données et à leur exploitation. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe sur des projets complexes, ainsi qu'une attitude proactive pour garantir la conformité et la performance des solutions déployées.
Freelance
CDI

Offre d'emploi
Expert en Protection des Données sur Toulouse

EterniTech
Publiée le
Architecture
Cybersécurité
Office 365

3 mois
Toulouse, Occitanie
Je recherche pour un de mes clients un Expert en Protection des Données de formation ingénieur sur Toulouse Localisation : Balma (Toulouse) Déplacement à prévoir : Paris et Lyon TT : 2j par semaine Démarrage : ASAP 13/04/26 Séniorité : 6 à 9 ans Objectif global : Accompagner les projets de sécurité des solutions collaboratives Contrainte forte du projet : Travail en collaboration avec les équipes de Porto Les livrables sont Pilotage des projets de protection de donnée / Analyse de sécurité / Gestion du RUN des solutions de protection de donnée Compétences techniques Architecture de sécurité - Confirmé - Impératif Sécurité O365/MS - Confirmé - Impératif Sécurité des données - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Protection des Données recherche pour son service Sécurité Des Données un Expert en Protection des Données de formation ingénieur. Vous accompagnerez nos équipes dans la mission cruciale de protection des données sensibles du Groupe. Au sein d'une équipe pluridisciplinaire, votre mission sera d'apporter votre expertise technique sur le projet DSPM, d'assurer le maintien en condition de sécurité de la solution collaborative M365, de déployer et piloter les campagnes de revue des accès. Vous serez également en charge du fonctionnement des solutions de découverte et de gouvernance des accès aux données bureautiques, contribuant ainsi activement à la protection des données du Groupe BPCE. Vos principales activités comprendront : - Contribuer au déploiement de la solution DSPM Varonis. - Définir les règles de détection du DSPM, assurer l'analyse et le reporting des résultats. - Assurer le maintien en condition opérationnelle (MCO) de la solution DSPM. - Définir, paramétrer et améliorer les règles de sécurisation M365. - Produire des analyses de sécurité relatives aux nouveaux services M365. - Garantir la sécurité des projets intégrés au tenant M365. - Déployer la solution de revue des partages M365 (IDECSI) au sein du Groupe et piloter les campagnes de revue associées. - Assurer la maintenance et l'amélioration d'un tableau de bord présentant les indicateurs clés d'activité. - Garantir le maintien en condition opérationnelle des solutions de protection des données bureautiques. - Suivre et traiter les incidents et proposer des remédiations (N2/N3). - Rédiger des guides et des standards de sécurité. - Assurer une veille technologique proactive. Pour mener à bien cette mission, les compétences suivantes sont requises : - Maîtrise des briques d'infrastructure d'un système d'information. - Connaissances fonctionnelles et techniques approfondies sur M365, Microsoft Purview, Azure, ADRMS, DKE, SailPoint FAM, Varonis DatAdvantage, Splunk. - Compétences en développement : Powershell, PowerApp, PowerBI, Python. - Culture SSI/Cybersécurité solide, avec une expertise particulière sur les risques associés aux fuites d'information. - Des formations et certifications sur les sujets Sécurité et Cloud constituent un réel atout.
Offre premium
Freelance
CDI

Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE

Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes

1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous