L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 708 résultats.
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Offre d'emploi
DEVOPS Platform Engineer
Craftman data
Publiée le
Administration linux
ELK
Kubernetes
6 mois
40k-45k €
450-570 €
Paris, France
LES PROFILS QUI NE CORRESPONDENT PAS A L'OFFRE NE SERONT PAS CONSULTÉS TT : 2j/s TJM selon profil Séniorité : 9 ans Expérience dans des missions longues en banque requise Pour ce projet d’infrastructure, la direction technique recherche un Platform Engineer en prestation externe pour l’intégration et l’administration des offres. La prestation s'effectuera au sein de la Platform Engineering dans la tribe « Automaisation & observabilité » Les objectifs de la prestation sont : • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les clients internes « ME » projet sur la livraison de leurs applications dans le cloud • Être support des « ME » en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les éditeurs • Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Automatiser le provisioning et la configuration des offres Platform Engineering • Développer des playbooks Ansible et des modules Terraform • Installation et Intégration des produits DT d’observabilité (Grafana, LOKI, Instana ELK, Prometheus) • Automatiser les tests et la validation technique • Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique de Transactis. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures du cloud provider de la société générale « GTE » pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des « ME » en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers entre Transactis et « GTE » • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage Compétences et expériences nécessaires • Systèmes Linux, CentOS, RedHat & Réseaux • Maîtrise et expérience des technologie liées aux architectures de conteneurisation (Terraform / ANSIBLE / Kubernetes / Docker / ArgoCD / Harbor / Istio / CI/CD – GIT /Jenkins …) • Grafana, LOKI, Instana ELK, Prometheus : administrations, installation, tunning • Maîtrise du fonctionnement d'un système réseau sous Linux • Maîtrise des architectures réseaux distribuées et résilientes • Méthodologies agile / Sprint • Capacité en vulgarisation des technologies cloud • Connaissance générale de l’architecture applicative Souhaitées : • Expériences bancaires et/ou moyens de paiements • Expérience de l’écosystème et de l’organisation de la Société Générale/GTE • Connaissance des procédures liées à la gestion des incidents, problèmes et changements • Anglais
Offre d'emploi
DBA MongoDB Expert / PaaS Azure
AVA2I
Publiée le
Azure
Mongodb
PaaS (Platform-as-a-Service)
3 ans
Île-de-France, France
Dans le cadre du renforcement de ses équipes IT et de l’évolution de ses plateformes data vers le cloud, un grand groupe international recherche un DBA MongoDB expert pour intervenir sur des environnements PaaS Azure à forte criticité . Le poste est orienté expertise opérationnelle et technique . Il ne s’agit pas d’un rôle d’architecte , mais d’un référent MongoDB capable d’intervenir en profondeur sur l’administration, la performance et la fiabilité des bases de données. Objectifs du poste Garantir la disponibilité, la performance et la sécurité des bases MongoDB Assurer le maintien en conditions opérationnelles (MCO) sur des plateformes critiques Apporter une expertise MongoDB avancée aux équipes IT et applicatives Accompagner la montée en puissance des environnements Azure PaaS Missions principales Administration & exploitation Administrer et exploiter des bases MongoDB en environnement Microsoft Azure PaaS Assurer le MCO : performance disponibilité sécurité Optimisation & performance Réaliser le tuning avancé des bases MongoDB Gérer les index, la volumétrie et la réplication Analyser et corriger les problématiques de performance Anticiper les risques liés à la montée en charge Support & incidents Gérer les incidents complexes N2 / N3 Réaliser des diagnostics approfondis et du troubleshooting Apporter un support expert aux équipes applicatives Maintenance & bonnes pratiques Réaliser les montées de version et opérations de maintenance Mettre en place et suivre les bonnes pratiques : sauvegardes / restaurations supervision sécurité haute disponibilité Contribuer à l’amélioration continue des standards d’exploitation MongoDB Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting (PowerShell, Python ou équivalent) Supervision, sécurité, haute disponibilité Environnements critiques à forte volumétrie
Offre d'emploi
Mission freelance - DevOps SRE – Production & Monitoring Azure / Dynatrace - PARIS
KUBE Partners S.L. / Pixie Services
Publiée le
Azure DevOps
DevOps
Site Reliability Engineering (SRE)
3 ans
Paris, France
Bonjour à tous ! pour renforcer l'équipe de l'un de nos clients, je recherche un(e) : DevOps SRE Production Monitoring Azure Dynatrace Le client recherche un DevOps orienté SRE avec une forte expérience en production et en Run. Il travaillera avec l’équipe projet pour mettre en place le monitoring et assurer le suivi. Missions : Mise en place et suivi du monitoring sur un environnement Azure avec Dynatrace. Gestion des alertes et du suivi liés au monitoring. Compétences : Expérience DevOps/SRE en production. Maîtrise de GitHub, Azure et Dynatrace. Solide expérience en monitoring. Informations complémentaires : Localisation : Paris (2 à 3 jours de télétravail par semaine) Durée : Long terme (3 ans) - démarrage sous 1 mois MAX Statut : Freelance ou portage Profil recherché : DevOps/SRE autonome, orienté production, avec une forte expertise en monitoring sur Azure et Dynatrace. Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger. Merci
Mission freelance
Data Engineer AWS / GenAI
Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Offre d'emploi
ingénieur Kubernetes/GitOps expert
UMANTIC
Publiée le
50k-70k €
Cesson-Sévigné, Bretagne
## Fiche de poste Kubernetes & GitOps Engineer - Platform Engineering (CaaS) Mission longue durée - Full Remote possible - Cesson-Sévigné (35) * * * ### À propos de la mission Dans le cadre du programme Move2Cloud d'Orange Business, l'équipe CaaS-CNP (Container as a Service - Cloud Native Platform) construit et opère un écosystème de clusters Kubernetes multi-zones déployés sur Azure AKS et OpenStack. Toute la chaîne d'orchestration repose sur des technologies GitOps de pointe : Cluster-API, Flux et un packaging Helm complet. Intégré(e) à l'équipe Core en tant qu'expert(e) BUILD, vous participez activement à la conception, l'implémentation et la mise en production de cette plateforme d'infrastructure critique. * * * ### Vos missions principales * Concevoir et développer les stacks Kubernetes via Helm, Flux et Cluster-API * Construire et maintenir les pipelines CI/CD pour les tests d'infrastructure automatisés (GitLab CI) * Contribuer aux activités de build/run sur les clusters de production (upgrades, support infra) * Rédiger les documentations techniques et utilisateurs * Participer aux cérémonies Agile et alimenter les user stories JIRA / issues GitLab * * * ### Stack technique Domaine | Technologies ---|--- Orchestration | Kubernetes, Cluster-API, Azure AKS, OpenStack GitOps & IaC | Flux, Helm, Kustomize, Terraform, Ansible CI/CD | GitLab CI Observabilité | Prometheus, Alertmanager, Grafana, Loki Sécurité | HashiCorp Vault Scripting | Bash, Python OS | Linux
Offre d'emploi
Technicien Support Applicatif N2 (H/F)
RIDCHA DATA
Publiée le
API REST
Confluence
JIRA
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’une augmentation importante de la charge de travail , l’équipe support doit être renforcée afin de maintenir un niveau de service optimal. Le technicien interviendra au sein de l’équipe support pour assurer le traitement des demandes clients et le bon fonctionnement des applications . Missions principalesSupport technique et applicatif Assurer un support de niveau 2 via un outil de ticketing . Diagnostiquer et résoudre les incidents techniques et fonctionnels . Garantir le respect des SLA liés au traitement des demandes de support. Gestion des comptes et accompagnement client Configurer les comptes clients sur les différentes applications . Accompagner les clients dans l’ intégration et l’utilisation de la solution en collaboration avec l’équipe Customer Success Management (CSM) . Rédiger les communications clients en cas d’incident ou d’évolution. Supervision et maintenance Déployer et maintenir les outils de supervision de la solution . Participer au suivi du bon fonctionnement des services applicatifs . Documentation et amélioration continue Rédiger et maintenir les procédures de support (niveau 1 et niveau 2) . Participer à l’ amélioration des processus de support . Support opérationnel Bien que les appels entrants soient principalement traités par un prestataire externe , intervenir ponctuellement en débordement si nécessaire. Livrables attendus Traitement des tickets de support niveau 2 Respect des SLA de traitement Documentation des procédures de support Communications clients lors d’incidents ou évolutions Suivi des outils de supervision applicative Compétences techniquesCompétences indispensables REST / SOAP – Confirmé – Impératif Bonne connaissance des outils de ticketing Compétences appréciées Jira Confluence Langues Anglais professionnel – impératif Environnement de travail Environnement éditeur logiciel Collaboration avec les équipes support, technique et Customer Success Méthodologie Agile (appréciée)
Mission freelance
Appui AMOA Data / IA (4 ETP)
Signe +
Publiée le
AMOA
6 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Cadrage et mise en œuvre de besoins IA. Missions Cadrage fonctionnel des besoins IA Appui au pilotage Accompagnement de la réalisation Compétences obligatoires Expérience en cadrage fonctionnel Pilotage de projet Data / IA Bonne compréhension des enjeux IA Profil recherché Expérience AMOA Data Capacité à structurer des besoins complexes Interface métier / technique Contexte Cadrage et mise en œuvre de besoins IA. Missions Cadrage fonctionnel des besoins IA Appui au pilotage Accompagnement de la réalisation Compétences obligatoires Expérience en cadrage fonctionnel Pilotage de projet Data / IA Bonne compréhension des enjeux IA Profil recherché Expérience AMOA Data Capacité à structurer des besoins complexes Interface métier / technique
Mission freelance
Team Lead Java / Engineering Manager H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Java
6 mois
Courbevoie, Île-de-France
Poste : Team Lead Java Localisation : La Défense Durée : 1 an renouvelable (3ans max) Contexte : Management d'un Pool de développeur et de tech lead Le Team Lead est responsable de l’accompagnement et de la montée en compétences des équipes de développement. Ce rôle est stratégique : il combine leadership humain, expertise technique et vision transverse. Il/elle fait le lien entre les objectifs techniques, les enjeux produits et les ressources humaines de l’équipe. Missions : Faciliter l’émergence d’une vision technique commune, alignée avec la stratégie DSI Manager une équipe d’une vingtaine de développeurs Animer la réflexion continue autour des pratiques de qualité et fédérer l’équipe autour de standards de développement Coordonner le pilotage de la dette : faciliter l'identification, l'évaluation, et l'intégration au backlog des sujets de dettes avec le PO En tant que responsable du partage de connaissance technique, créer les conditions d’apprentissage et de montée en compétence pour tous Faciliter la coordination technique transverse Encourager l’équipe à comprendre les enjeux métier et incarner cette logique de valeur Incarner les valeurs agiles et favoriser la prise de responsabilité collective Solide maîtrise des technologies Java/Angular et des traitements batch. Participer aux choix d’architecture et de conception technique (API, performance, scalabilité, sécurité) Piloter la co-construction et l’appropriation d’une vision technique pour et par l’entité " S’assurer de la cohérence des choix d’implémentation quotidiens avec la cible" Manager une équipe d’une vingtaine de développeurs (recrutement, suivi de la progression, évaluation, projection et montée en compétences…), en s'appuyant sur des relais opérationnels (lead dev) " Définir et piloter les actions de réduction de la dette" Participer à la mise en œuvre de la stratégie de recette cible Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo, …) Mettre en place et piloter des plans de développement pour les développeurs, faciliter le Pair programming et les tech talks animés par tous Contexte agile SAFe
Offre d'emploi
Consultant Senior / Manager - Intelligence Artificielle
Mon Consultant Indépendant
Publiée le
Agent IA
Marketing
Stratégie
60k-70k €
Monaco
Nous recherchons un Consultant Senior / Manager en stratégie et transformation digitale disposant d’une expertise confirmée en intelligence artificielle. Le consultant interviendra notamment sur : Le cadrage stratégique et la structuration de trajectoires de transformation La priorisation de d'initiatives digitales / IA La mise en place de cadres de gouvernance adaptés Le pilotage de projets jusqu’à leur mise en œuvre opérationnelle L’accompagnement du passage à l’échelle et de l’adoption Profil recherché : Expérience en cabinet de conseil Expérience en pilotage de projets de transformation Expérience concrète dans le déploiement et l’industrialisation de dispositifs IA Le niveau de responsabilité et les conditions associées seront définis en fonction du profil et de l’expérience. Une localisation en région PACA ou un projet de mobilité vers la région est nécessaire.
Mission freelance
Data Engineer
Signe +
Publiée le
Deep Learning
MLOps
Python
6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre d'emploi
Consultant·e Stratégie et Cadrage Data & IA - Senior
█ █ █ █ █ █ █
Publiée le
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer confirmé H/F
SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI
12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Mission freelance
Developpeur .NET - Rennes
Tenth Revolution Group
Publiée le
.NET
Azure
Microsoft Dynamics
6 mois
100-400 €
Rennes, Bretagne
Développeur .NET - Rennes Dans le cadre d’un projet de modernisation des flux d’intégration pour l’un de nos clients, nous recherchons un Développeur .NET expérimenté afin d’intervenir sur la refonte de flux existants entre Dataverse et Dynamics 365 Finance & Operations . Démarrage ASAP. Déplacements sur site à Rennes. Durée : quelques mois. Missions Au sein de l’équipe technique, votre mission consistera à : Remplacer des flux existants Power Automate reliant Dataverse et Dynamics 365 F&O . Concevoir et développer des Azure Functions permettant de gérer ces intégrations. Analyser les flux Power Automate existants afin de comprendre la logique métier et technique. Mettre en place des mécanismes d’échange de données robustes entre Dataverse et D365 F&O . Participer aux phases de conception technique et proposer des solutions optimisées dans l’écosystème Azure. Profil recherché Compétences requises : Solide expérience en développement .NET (C#) Expérience avec Microsoft Azure , notamment le développement d’ Azure Functions Bonne compréhension des architectures d’intégration et des APIs Compétences appréciées : Expérience avec la Power Platform , notamment Power Automate Connaissance de Dataverse (lecture / écriture de données) Expérience avec Dynamics 365 Finance & Operations Environnement technique .NET / C# Microsoft Azure Azure Functions Power Platform / Power Automate Dataverse Dynamics 365 Finance & Operations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5708 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois