L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 756 résultats.
Mission freelance
Entra ID pour une mission sur Orleans/s
WorldWide People
Publiée le
Microsoft Entra ID
6 mois
400 €
Orléans, Centre-Val de Loire
Entra ID pour une mission sur Orleans. Services d'annuaire EntraID (AzureAD) / Active Directory MFA, SSO, OIDC, SAML… Administration des serveurs Windows Scripting de type PowerShell et/ou Bash Capacité à travailler en équipe Autonome et force de proposition Capacité rédactionnelle Il faut que le candidat s'installe dans la région. Full présentiel puis 3 jours de TT Ci dessous le besoin : Objectifs et enjeux du missionnement : Porter les engagements du Pôle STI sur les domaines "EntraID (AzureAD)" et "Active Directory". Participer aux déploiements sur les Environnements Fabricants et aux Mises En Production. Traiter et réaliser les demandes d'intervention, créations d’applications EntraID. Apporter une expertise technique et un support de niveau 3. Apporter un conseil aux projets demandeurs. Analyser et résoudre les incidents et problèmes. Compétences : Services d'annuaire EntraID (AzureAD) / Active Directory MFA, SSO, OIDC, SAML… Administration des serveurs Windows Scripting de type PowerShell et/ou Bash Capacité à travailler en équipe Autonome et force de proposition Capacité rédactionnelle Livrables attendus : Dossiers de conception des applications dans le périmètre Mise à jour des dossiers d'exploitation (DEX) dans le périmètre Procédures et scripts d'automatisation Activités à réaliser : Réaliser les évolutions du référentiel technique et s'assurer de son application Maintenir en condition opérationnelle les annuaire EntraID (AzureAD) et Active Directory et autres produits de l’équipe (SSPR, IDM, AD Connect, ADFS, Windows Hello For Business…) Définir et faire évoluer l'architecture technique du domaine d'activités S'approprier de nouvelles technologies afin de les intégrer dans le SI, dans le respect des normes en vigueur. Être force de proposition sur les sujets portés dans le cadre de la mission Travailler en équipe et rendre compte L'équipe utilise les méthodes agiles et suit ses activités au travers de tableaux Kanban. L'usage de la méthode SAFe est à prévoir dans le cadre de participation à des trains agiles et des projets.
Mission freelance
DevOps Production Cloud GCP Kafka
CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
12 mois
400-580 €
Paris, France
Vous accompagnerez les équipes sur les plateformes Confluent Cloud Kakfa SaaS, Kakfa Connect GCP & OnPremise. Vos missions consisteront à contribuer: Administration Kafka et Mise en oeuvre du socle autour de Kafka Faire évoluer et maintenir la plateforme technologique autour Confluent KAFKA Mise en place et Support aux équipes de développements sur les configurations & bonnes pratiques Confluent Kafka (topics..) Participer à l’administration et les optimisations des flux Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Participer à la Supervision des flux Kafka Participer à la surveillance des machines On-Premise participant à l'écosystème Kafka Participer à la Configuration et l’optimisation de la remontée des logs et traces dans Dynatrace Contribuer à Garantir la conformité des accès selon les standards de sécurité Contribuer à Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Automatisation & IaC Développer des modules Terraform pour la gestion de la plateforme Automatiser les tâches récurrentes Optimiser les processus de déploiement et de rollback
Offre d'emploi
Lead AI Engineer
ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)
60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Mission freelance
support applicatif N2, forte capacité d’analyse (Dynatrace) Orleans
WorldWide People
Publiée le
Dynatrace
6 mois
300-330 €
Orléans, Centre-Val de Loire
support applicatif N2 , forte capacité d’analyse (Dynatrace) Orleans , développement d'outillages (Java, Python), scripting (Bash), rigueur documentaire, et capacité à travailler en interaction avec le N1 et les équipes produits et techniques. L’objectif est de réduire la charge de support , améliorer le MTTR , et augmenter l’autonomie des équipes via automatisation + standardisation . Nous souhaitons recruter un collaborateur externe au sein de notre équipe Support Applicatif N2 , en charge du traitement des incidents fonctionnels escaladés par le N1 . Le profil recherché devra assurer l’activité de support N2 (qualification, analyse, diagnostic, recherche de cause, contournement, suivi des corrections avec les équipes produit), mais avec une forte valeur ajoutée sur l’industrialisation du run et l'amélioration continue . Nous attendons en particulier une sensibilité DevOps / culture SRE , avec une capacité à : · Automatiser les tâches récurrentes de support (scripts, outillage, runbooks exécutables), · Améliorer l’observabilité et accélérer les diagnostics (logs, dashboards, alerting), · Contribuer à la réduction des incidents récurrents via RCA et actions de fiabilisation · Structurer et enrichir la base de connaissance · Rendre plus autonomes les clients internes et les équipes produit (observabilité, selfcare, procédures, outils de diagnostic). Compétences attendues : expérience en support applicatif N2 , forte capacité d’analyse (Dynatrace) , développement d'outillages (Java, Python), scripting (Bash), rigueur documentaire, et capacité à travailler en interaction avec le N1 et les équipes produits et techniques. L’objectif est de réduire la charge de support , améliorer le MTTR , et augmenter l’autonomie des équipes via automatisation + standardisation . Principaux environnements techniques : Observabilité : DYNATRACE Systèmes : LINUX Supervision : CANOPSIS Monitoring : KIBANA Serveurs web : WEBLOGIC, TUXEDO Conteneuristation : KUBERNETES (TAS, K8S) Base de données : ORACLE Ticketing : SNOW, JIRA Compétences en scripting et développement et affinités pour l'automatisation (Java / Python / Bash) DevOps : CI/CD (GITLAB) Travail collaboratif : Confluence, Mattermost, O365 Méthodologies et normes : Agile / SCRUM, CI/CD - DevOps Communication et coordination : Animation de réunion Coordinations d’environnements Communication avec les différents services et clients (équipes produits) Documentation Bonne communication écrite et orale Nous recherchons un candidat résidant à Orléans
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Cloud Sec Ops Engineer
KS Consulting
Publiée le
Azure
Google Cloud Platform (GCP)
6 mois
Paris, France
Le consultant interviendra principalement pour reprendre et opérer les activités Cloud SecOps existantes, tout en préparant et en réalisant la passation structurée vers le ou les futurs acteurs internes/externes qui reprendront le poste. N’hésitez plus à proposer votre profil si vous avez… Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS) Une appétence avérée pour les IA modernes (Claude, Gemini, Vertex AI) et les technologies associées (MCP, AI toolchains) Une connaissance des méthodes d’évaluation des risques et des référentiels (OWASP) un plus ! Une bonne compréhension des CIS Controls et/ou CIS Benchmarks pour guider les pratiques de durcissement et de conformité Cloud. Des notions sur la réglementation sécurité (protection des données, privacy…)
Offre d'emploi
Administrateur systèmes et réseaux
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Rennes, Bretagne
Missions : •Administration système : Conception, Mise en oeuvre, optimisation et MCO de l’infrastructure SI : •Serveurs (windows, linux) •VM Ware •Stockage (Netapp, IBM) •Sauvegardes (veeam) •Exchange on line, AD, Azure AD •Architecture Open source •Containerisation et orchestration avec Kubernetes •CI/CD sur GitlabCI •Terraform pour gestion d’infrastructure GCP •Administration réseau et sécurité : •Des systèmes de sécurité (FW, Proxy, Reverseproxy, WAF, PAM, SSE, EDR, SSO) •Réseau (Cisco principalement, Nexus), LAN, WAN, Routage, SDWAN •Transverse : •Faire preuve d’expertise afin de proposer les solutions les plus adaptées aux besoins de l’entreprise •Piloter la réalisation par des intégrateurs des projets menés par l’équipe Infrastructure et Sécurité SI •Rédaction et mise à jour des procédures infra : architecture, sauvegarde, réinstallation. •Rédaction et mise à jour des documents à destination du CSI ou de l’exploitation. •Pilotage de projet : •Conduire des projets de la conception à la mise en production. •Reporting projet •Pilotage de prestataires •Rédaction de procédures d’exploitation et de documentation technique •Support utilisateurs : Escalade niveau 2 du CSI et de l’exploitation •Assurer le traitement des demandes utilisateurs escaladées par les équipes support : applicative, matérielle, logicielle. •Assurer une veille technologique afin de trouver des solutions innovantes permettant de répondre aux besoins des utilisateurs
Mission freelance
Architecte portail IA
CAT-AMANIA
Publiée le
Python
React
12 mois
740-860 €
Paris, France
Au sein de l’équipe "Gouvernance et Mise en oeuvre de l'IA" composée de 6 personnes, l'architecte logiciel aura pour objectifs d'adapter l'architecture du portail IA et d'aider à la mise en oeuvre des améliorations à apporter au portail IA afin de répondre aux besoins de ses utlilisateurs. A ce titre il sera chargé, en lien avec le chef de projet, de proposer des pistes techniques ou fonctionnelles d'améliorations à partir de la stack technique Open source de RAISE. Il sera en charge de mettre en oeuvre ces pistes et de les documenter afin de permettre ensuite leur maintenance par les concepteurs développeurs de l'équipe. Il sera aussi en charge de prendre en compte les impacts techniques liés aux décisions de la gouvernance IA en réalisant les études d'impacts en cas de modifications structurantes pour le portail IA. Enfin, il sera en charge au sein de l'équipe "Gouvernance et Mise en oeuvre de l'IA" et en lien avec les équipes chargées de l'intégration des environnements et de la supervision de la production, de mettre en oeuvre et de maintenir la chaîne CI/CD permettant de délivrer le portail IA. Dans un premier temps le portail IA est déployé dans le cloud AZURE et il devrait basculer on-premise ou vers un autre clouder au cours de la prestation. Cette prestation pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un excellent relationnel est indispensable afin de savoir prêter assistance à des utilisateurs non technique, notamment en sachant adapter son discours afin de faire comprendre ses idées et être en capacité d'assurer la rédaction de la documentation du portail IA. Une expérience significative de RAISE, ou de sa stack applicative dans un autre contexte, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker).
Mission freelance
architecte applicatif / architecte solution
W Executive France SAS
Publiée le
Confluence
DevOps
MEGA HOPEX
2 ans
Paris, France
Bonjour, je recherche pour l'un de mes clients un(e) archi. applicatif / solution . Skills : MEGA HOPEX - CI/CD - CONFLUENCE - ANGLAIS - Terraform - devOps Mission : -concevoir et superviser l'architecture des applications -définir et maintenir la vision architecturale des applications, en assurant leur cohérence, évolutivité, performance et sécurité -gérer et maintenir le référentiel d'architecture d'entreprise via MEGAHOPEX -accompagner et former, le cas échéant, les équipes de développement sur les bonnes pratiques architecturales et DEVOPS N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
POT8942 - Un DEVELOPPEUR(SE) FRONT Node JS / REST & GraphQL – Expert (>10 ans) Sur Chatillon.
Almatek
Publiée le
JIRA
6 mois
260-430 €
Châtillon, Île-de-France
Almatek recherche pour l'un de ses clients, Un DEVELOPPEUR(SE) FRONT Node JS / REST & GraphQL – Expert (>10 ans) Sur Chatillon. Compétences techniques: Node JS (React Native, JavaScript) – Expert – Impératif REST & GraphQL (Express, Apollo) – Expert – Impératif CI/CD (GitLab CI) – Expert – Important JIRA – Confirmé – Important Connaissances linguistiques Français courant (Impératif) Description détaillée Contexte de la mission: Le périmètre de la mission est pluridisciplinaire et couvre deux pôles de compétences : Développement (DEV) et Qualité (QA). Il sera demandé d’intervenir à la fois sur le développement frontend mobile ainsi que sur les tests technico-fonctionnels. Le/la consultant(e) travaillera en étroite collaboration avec la PO, la RA et le développeur backend au sein de la squad Maestro, dans le département DataLab. La répartition des activités variera selon les Program Increments (PI). Pour le premier PI, la répartition estimée est de 80 % QA et 20 % DEV. Compétences Développement (niveau Senior) Développement de nouvelles fonctionnalités frontend (mobile). Maintenance et évolution de l’application mobile. Mise en place et exécution des tests unitaires sur les évolutions réalisées. Collaboration étroite avec l’équipe produit. Mise en place et optimisation des processus CI/CD. Participation aux revues de code et à l’amélioration continue. Résolution de problèmes techniques et debugging. Optimisation des performances et de la qualité du code. Travail en collaboration avec les équipes métiers pour recueillir et définir les besoins.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Engineer Manager - Domaine Monétique Issuing ECIS & WERO Consumer (Lyon)
MEETSHAKE
Publiée le
Monétique
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement et de la transformation de ses activités monétiques, notre client recherche un Engineer Manager pour piloter et accompagner cinq équipes multisite intervenant sur les périmètres Issuing ECIS et WERO Consumer. Ce rôle combine leadership, pilotage opérationnel et vision technologique afin de garantir la performance et l’évolution de leurs solutions de paiement. Responsabilités principales Pilotage du delivery - Garantir la tenue des engagements des équipes sur les aspects qualité, délais, budget et conformité. - Superviser les activités projets et run sur l’ensemble des périmètres monétiques. - Prioriser et synchroniser les travaux avec les Product Owners et les équipes transverses, architectes, framework, SRE, PMO). - Mettre en place et suivre les KPI de performance, identifier les risques et porter les plans d’amélioration. Management & organisation des équipes multisite - Gérer et structurer les ressources IT du domaine en adaptant le staffing, la répartition des rôles et la typologie des équipes selon l’activité. - Accompagner la montée en compétences des collaborateurs, favoriser l’engagement et la cohésion, y compris à distance. - Déployer les bonnes pratiques d’ingénierie logicielle : qualité, automatisation, optimisation CI/CD, sécurité. Amélioration continue & excellence opérationnelle - Définir et faire évoluer les processus, standards et bonnes pratiques transverses. - Contribuer à l’amélioration continue sur les aspects organisationnels, techniques et méthodologiques. - Assurer la MCO des applications du périmètre, piloter les incidents majeurs et les analyses de causes racines. Coordination - Collaborer étroitement avec les équipes métiers, la sécurité, l’infrastructure, les architectes et les partenaires externes. - Représenter le domaine dans les instances clés et assurer une communication fluide entre les différents acteurs. - Contribuer à la définition et au suivi des roadmaps Emission & WERO Consumer.
Offre d'emploi
DEVELOPPEUR(SE) BACK - Confirmé (4-10 ans)
SARIEL
Publiée le
.NET
.NET CORE
24 mois
126k-176k €
460-480 €
Châtillon, Île-de-France
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons un DEVELOPPEUR(SE) BACK - Confirmé (4-10 ans) Objectif global : Développer Back-office e-commerce Intermarché Contrainte forte du projet E-commerce, ingénierie logicielle et documentaire Les livrables sont Conception Développement Tests unitaires Description détaillée - Run / Legacy : assurer la maintenance corrective et évolutive des applications existantes en .NET 4.7.2, analyser et résoudre les incidents de production. - Build / Modernisation : contribuer aux nouveaux développements en .NET 8, participer aux initiatives de modernisation (Clean Architecture, Event-Driven, CI/CD). - Astreinte : participer au dispositif d’astreinte hebdomadaire et garantir la continuité de service. - Qualité du code : produire un code fiable, maintenable et testé (revues de code, automatisation, tests unitaires et d’intégration). - Bonnes pratiques : appliquer et promouvoir les standards techniques du chapitre .NET (architecture propre, performance, sécurité, documentation). Définition du profil ANALYSE Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Ingénieur de production Linux / Unix Vitrolles/l
WorldWide People
Publiée le
Linux
6 mois
340-370 €
Vitrolles, Provence-Alpes-Côte d'Azur
Ingénieur de production Linux / Unix Vitrolles ASAP Principales expertises mises en œuvre. Compétences obligatoires • Système : Linux / Unix • Bases de Données : langage SQL, PL/SQL ; SGBD Oracle, PostgreSQL • Scripting Shell • Middleware : Bonne connaissance technique sur les technologies : Web : Java, Kafka, Tomcat, Nginx • Bon niveau en Anglais Compétences optionnelles • Langages de programmation : Python, Perl • Une connaissance des outils de métrologie et supervision (Graphite/Grafana, Nagios, Check MK) • Une expérience de déploiement en cloud public serait un plus • Connaissance CI/CD : git / rancher / Kubernetes • Centralisation des Logs (ELK, ENK) • Annuaire de services (Zookeeper) • Gestionnaire de Cache (Hazelcast) • Base de données : SGBD Mongodb, mySQL • Maitrise des techniques de communication écrite, orale et de la qualité relationnelle Contexte Le Responsable Opérationnel d’Applications « Sport » devra garantir : • Le maintien en conditions opérationnelles des applications « Sport » en production en conformité avec les niveaux de services contractuels, • L’homologation, l’industrialisation et les mises en production des applications « Sport », • La mise à disposition des environnements de recettes des applications « Sport ». • Eventuellement des astreintes seront à faire Missions Opérationnelles Le responsable opérationnel d’applications devra par ses connaissances : • Contribuer à l’homologation, l’industrialisation et la mise en production des applications « Sport » pour faciliter le passage de l’état Projet à l’état Production, • Contribuer à la mise à disposition, de manière industrielle, des environnements nécessaires aux projets et à la production en collaboration avec les différents acteurs de l’activité « Sport », • Assurer les mises en production applicatives « Sport », en les rejouant préalablement sur les environnements de pré-production. Bon relationnel Maitrise de ses connaissances techniques Motivé Force de proposition A l’aise dans un environnement de travail international
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1756 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois