L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 145 résultats.
Offre d'emploi
Ingénieur BI / Data Analyst F/H - Maîtrise d'ouvrage et fonctionnel (H/F)
█ █ █ █ █ █ █
Publiée le
SQL
Toulouse, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
SRE / DevOps / Ingénieur Production
WIKEYS
Publiée le
Ansible
AWS Cloud
Azure
10 mois
40k-45k €
400-550 €
Paris, France
Nous recherchons un SRE / DevOps expérimenté pour mettre en place, provisionner et maintenir l’ensemble des briques d’infrastructure nécessaires au déploiement de solutions critiques. Le poste couvre la gestion de la toolchain complète , le support N2/N3, et l’automatisation des opérations. Responsabilités techniques : Provisionner et administrer les infrastructures cloud privé (~80%) et public AWS / Azure (~20%). Gestion du socle : patching, performance, résilience, vulnérabilités. Développement d’ API d’automatisation et scripts pour l’exploitation et la maintenance. Automatisation de la configuration et du déploiement avec Terraform , Ansible , Jenkins OSS , Git/GitHub Actions . Conteneurisation et intégration de solutions via Docker . Supervision et monitoring : dashboards, observabilité, alerting. Support opérationnel N2 / N3 pour incidents et problèmes complexes.
Mission freelance
Data Engineer Expert (Python & Databricks)
Nicholson SAS
Publiée le
CI/CD
Databricks
Gitlab
8 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Industrie / Mobilité Localisation : Lyon (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Clôture prévisionnelle : 31/12/2026 Le Challenge Intégré(e) à un environnement technologique de pointe, vous aurez pour mission de concevoir et d'industrialiser des produits data robustes. Votre objectif : garantir la fluidité, la scalabilité et la résilience de pipelines de données complexes, tout en imposant une culture de "Data Contract" et de qualité logicielle. Vos Responsabilités Ingénierie de données : Concevoir, développer et maintenir des pipelines batch et event-based haute performance. Optimisation & Scalabilité : Construire des flux Polars optimisés et supporter des workflows à grande échelle sous Databricks . Qualité & Fiabilité : Mettre en œuvre des processus de validation et de tests automatisés pour garantir l'intégrité absolue des données. Cloud & Industrialisation : Gérer les composants de stockage Azure et piloter l’automatisation via des pipelines CI/CD GitLab . Standards Software : Garantir la production d'un code Python exemplaire (Clean Architecture, revues de code, performance). Stack Technique Cible Langage : Python (Expertise Clean Architecture & Performance). Traitement : Polars, Pandas, Databricks, dbt. Orchestration : Prefect, Airflow ou Dagster. Cloud & Ops : Azure Cloud, GitLab CI/CD. Méthodologie : Data Modeling, design de schémas, tests automatisés. Profil Recherché Plus qu'un nombre d'années d'expérience (+4 ans suggérés), nous recherchons une véritable culture de l'ingénierie logicielle . Mindset : Esprit analytique, autonomie et forte capacité de résolution de problèmes techniques. Soft Skills : Excellente communication technique, goût pour le travail collaboratif et rigueur documentaire. Exigence : Une attention particulière portée à la "Product Value" et à la durabilité des solutions livrées. Conditions de la prestation TJM : 400 € Langue : Français / Documentation technique en Anglais Atout : Capacité à monter rapidement en compétence sur de nouveaux outils d’orchestration et de traitement. Note : Cette mission s'adresse à un profil passionné par l'efficience du code et la robustesse des architectures de données modernes.
Offre d'emploi
Data Engineer Teradata Data Viz H/F
CONSORT GROUP
Publiée le
Microsoft Power BI
Teradata
55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata Data Viz H/F C’est votre mission Vous êtes passionné·e par la data, l’ingénierie des données et la valorisation des données ? Ce poste est fait pour vous. En tant que Data Engineer Teradata Data Viz , vous êtes responsable du développement et de la mise à disposition des données de notre écosystème : Côté build : Concevoir et développer des solutions de traitement de données sous Teradata Mettre en place des flux d’alimentation de données (ETL – BTEQ) Modéliser les données en fonction des besoins métiers Développer des requêtes SQL performantes et complexes Participer à la mise en œuvre de solutions de datavisualisation (Power BI, MSBI) Collaborer avec les équipes métiers et techniques dans un environnement Agile Contribuer aux bonnes pratiques de développement et de modélisation Participer à la mise en place des chaînes de déploiement (DevOps) Côté run : Assurer le suivi des traitements en production Analyser et résoudre les incidents liés aux flux de données Optimiser les performances des traitements et requêtes SQL Participer à l’amélioration continue des applications Maintenir et faire évoluer les solutions existantes Documenter les processus et livrables (DTA, feuilles de route…) Assurer la qualité et la fiabilité des données Contribuer aux activités de support et de maintenance C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez analyser, résoudre des problématiques complexes et travailler sur des sujets data à fort impact sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Teradata, BTEQ, SQL avancé Power BI, MSBI (datavisualisation) Environnement UNIX / Shell scripting Outils : Control-M, Git, Jira, Confluence Méthodologies Agile & pratiques DevOps Modélisation de données & data engineering Connaissances du domaine bancaire (conformité, fraude, LCB-FT, risques) C’est votre manière de faire équipe : Esprit collaboratif et sens du collectif Rigueur et sens du détail Capacité d’analyse et de résolution de problèmes Communication claire et efficace Proactivité et autonomie Adaptabilité et curiosité C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 62 K€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Expert Python Middle-Office
AVALIANCE
Publiée le
Finance
Python
1 an
400-700 €
Île-de-France, France
Finance indispensable, avec une expérience significative sur des sujets Middle-Office / post-trade (allocation, lifecycle trade, positions, process de production). • Capacité confirmée à être opérationnel rapidement sur un SI complexe et sur des sujets à fort enjeu. • Très bon niveau technique : conception pragmatique, qualité, tests, performance, production readiness. Attendus spécifiques: •Être opérationnel rapidement sur le métier Middle-Office • Comprendre et maîtriser rapidement les flux post-trade (trade → allocation → positions → impacts coûts/risques). • Être capable de challenger des besoins Ops / Trading-Support / Portfolio sur les sujets allocation, exceptions, et process de production. • Assurer la continuité du périmètre Allocation • Prendre le rôle de référent de l'équipe, tout en organisant le partage de connaissance (docs, pairing, transfert vers l’équipe).
Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans
Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop
3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Mission freelance
Développeur Python - Accessibilité RGAA - Orleans/
WorldWide People
Publiée le
Python
6 mois
400 €
Orléans, Centre-Val de Loire
Développeur Python - Accessibilité RGAA Orleans profil spécialisé pour intégrer une équipe dédiée à l’accessibilité, dont la mission est d’accompagner des utilisateurs en situation de handicap (sourds, malvoyants, personnes présentant une déficience physique ou visuelle). Le candidat doit posséder une solide expertise en développement, tout en ayant une réelle sensibilité au support utilisateur, en particulier auprès de personnes en situation de handicap. Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Ci dessous le besoin : Les principales activités consistent à : Analyser les demandes d’évolution et/ou de correction Concevoir des solutions adaptées à WebAccess et NVDA, en conformité avec le cahier des charges et les exigences de qualité (performance, maintenabilité, exploitabilité, etc.) Concevoir en équipe la nouvelle solution « Aide en ligne » Développer et tester les solutions conçues Participer aux phases de recette avec des utilisateurs déficients visuels Assurer le support direct auprès des utilisateurs déficients visuels Pré-requis techniques Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Il faut que le candidat habite la région d'Orleans et des déplacements à Nantes sont à prévoir car les utilisateurs sont a Nantes.
Offre d'emploi
Expert Fullstack Python/React - Plateforme - Paris - H/F
EASY PARTNER
Publiée le
AWS Cloud
Docker
Python
80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Participer activement à la conception et à l’évolution d’applications métiers utilisées à grande échelle Développer des fonctionnalités complexes en lien avec des problématiques de performance et de scalabilité Intervenir sur des sujets variés allant de la structuration du code à l’optimisation des systèmes existants Contribuer à l’intégration de nouvelles briques technologiques dans un environnement en constante évolution Annexes Collaborer étroitement avec les équipes produit pour traduire des besoins fonctionnels en solutions techniques Participer aux choix d’architecture et aux réflexions techniques globales Prendre part aux échanges techniques (revues de code, bonnes pratiques, amélioration continue) Accompagner la montée en qualité et en structuration des développements Stack technique Python React SQL Git
Mission freelance
Développeur Python, Angular expérimenté sur AWS
CS Group Solutions
Publiée le
Angular
AWS Cloud
Python
6 mois
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Développeur Python, Angular expérimenté sur AWS Objectif global : Construire des Solutions en Python, Angular, AWS Le livrable est: Expertise, Conception, Réalisation, Accompagnement Compétences techniques: Python - Expert - Impératif Angular - Expert - Impératif AWS - Expert - Impératif Indus DevOps & IA - Expert - Impératif Connaissances linguistiques: Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée: Pour un client majeur, expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications.
Mission freelance
[FBO] Senior Python Backend Engineer – Plateforme Chatbot IA
ISUPPLIER
Publiée le
Agent IA
Chatbot
Python
3 ans
Île-de-France, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif de concevoir et déployer une plateforme backend de chatbot intelligente et sécurisée pour accompagner les collaborateurs dans leurs activités quotidiennes. Le service doit offrir une expérience conversationnelle fluide, multilingue, conforme aux exigences RGAA et sécurité du groupe, tout en permettant l’intégration de solutions métiers (assistants, fichiers, prompts, contextes, KPIs). La solution vise à centraliser et personnaliser l'assistance digitale, accessible à l'ensemble des entités, via une orchestration flexible et évolutive des fonctionnalités. Contexte : Au sein d’un grand acteur de la finance, vous participez à la mise en place d’un ChatGPT interne. En tant que développeur Python senior, vous concevez et opérez une plateforme de micro-services hautement disponibles, centrée sur un routeur d’appels vers différents endpoints (dont des LLM), des services de traitement de prompts/documents et une gestion fine des timeouts et fallbacks. Les briques IA avancées (RAG, recherche documentaire, modèles) sont prises en charge par les IA Engineers et le Tech Lead IA. Les missions principales : - Conception, développement et maintien des micro-services Python (FastAPI) robustes pour un routeur d’appels vers différents endpoints (LLM, services internes/externes, cache), la gestion des stratégies de fallback (changement de provider, cache, réponses dégradées), le traitement de prompts/documents (parsing, transformation, contrôle qualité). - Mise en place des APIs fiables et documentées (OpenAPI), avec gestion fine des erreurs et des timeouts, le respect d’un budget de temps à travers les micro-services, les mécanismes de retry et dégradation progressive. - Conception d'une architecture orientée événements autour de Redis Streams (ou équivalent) pour les flux asynchrones entre services (sans gérer directement la recherche documentaire). - Suivi d'une haute dispo, scalabilité et observabilité avin un scaling horizontal, une supervision (logs, métriques, traces), une gestion des incidents et amélioration continue de la résilience. - Contribution à l’industrialisation : CI/CD, tests automatisés (unitaires, intégration, contract testing, tests de charge/résilience), revues de code et bonnes pratiques. 7+ ans d’expérience en Python, dont une part significative en micro-services, haute dispo et APIs en production. Maîtrise de FastAPI, uvicorn et d’un système de streaming/messaging (Redis Streams ou équivalent). Solide expérience en conception d’API REST : erreurs, timeouts, versioning, observabilité (logs, metrics, traces), sécurité (auth, autorisation, rate-limiting). Expérience en systèmes distribués : scalabilité, résilience, gestion de la charge, stratégies de fallback. À l’aise avec le traitement de gros volumes de documents (PDF, Office, données structurées). Compréhension opérationnelle des LLM et du RAG pour intégrer les briques IA fournies par l’équipe dédiée. Culture DevOps (containers, CI/CD, monitoring) et exigence forte sur la fiabilité, la traçabilité et la conformité en environnement financier.
Mission freelance
Développeur Python/AWS - Lyon (69)
LeHibou
Publiée le
AWS Cloud
Python
6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client dans le secteur Énergie et ressources naturelles recherche un Lead développeur Python / AWS H/F Descriptif de la mission: Contexte et objectif de la mission Le projet se compose de deux modules : - une plateforme d’entreprise étendue visant à échanger des objets métiers dans le cadre de la maintenance d’installations industrielles entre l’entreprise et ses prestataires externes, afin d’assurer une continuité numérique entre les systèmes d’information ; - un portail web destiné aux partenaires ne disposant pas de système d’information. Le prototype a été réalisé de mars à mai 2023 en co-développement avec une équipe de prototypage cloud, en mode serverless. La V1 de la plateforme est en production depuis décembre 2023 et la V1 du portail depuis décembre 2024. Depuis février 2026, les échanges de bout en bout en entreprise étendue sont effectifs sur un premier objet métier. La feuille de route 2026 porte sur : - la poursuite de l’ajout de fonctionnalités pour faciliter le déploiement ; - l’amélioration de la maintenabilité du code ; - l’amélioration des performances ; - la revue d’architecture et des services cloud utilisés ; - l’intégration des contraintes de cybersécurité ; - la précision de l’exploitabilité de l’application en production. Environnement technique et organisation La plateforme propose des échanges de données métier via API et s’interface avec des applications métier internes et celles des partenaires. Le portail est accessible via le web. Éléments techniques et d’exploitation mentionnés : - données en transit et au repos chiffrées et stockées via DynamoDB ; - authentification forte utilisateur pour l’accès au portail ; - gestion des identités techniques via Cognito ; - sécurisation en frontal via WAF V2 et CloudFront pour les échanges avec API Gateway et S3 ; - stratégie de sauvegarde quotidienne, hebdomadaire, mensuelle et annuelle sur les services hébergeant les données ; - centralisation des logs applicatifs et d’authentification dans un environnement d’exploration ; - cible d’exploitation 24/7 à terme, avec plage actuelle prévue 9h-17h, 5j/7. L’équipe est organisée en agilité à l’échelle (SAFe) et comprend notamment : - 1 lead développeur backend ; - 1 lead développeur frontend ; - 3 développeurs Python ; - 2 développeurs Angular ; - 1 Scrum Master ; - 1 Proxy PO ; - 1 Product Owner ; - 1 architecte référent ; - 1 chef de projet. Des échanges sont également prévus avec des partenaires industriels externes. Responsabilités principales La prestation consiste à prendre un rôle de lead sur les développements Python du produit. Les activités attendues sont : - prendre le rôle de lead sur les développements Python du produit ; - encadrer l’équipe de développement backend Python ; - réaliser les développements, évolutions et corrections ; - analyser et corriger les incidents de production ; - réaliser les revues de code ; - réaliser la refactorisation et l’optimisation du code ; - participer à la conception des solutions ; - chiffrer le besoin métier ; - concevoir les spécifications détaillées de la solution ; - concevoir les plans de tests techniques. Profil recherché Séniorité attendue : expert (12 ans et plus). Compétences techniques requises : - Boto3 : senior ; - Cloud AWS : senior ; - Python : senior ; - API REST : senior ; - DevOps (Git, Jenkins) : senior ; - Clean Architecture : expérimenté. Compétences humaines requises : - leadership ; - bonne communication ; - pédagogie. Livrables attendus - Spécifications techniques détaillées - Plan de tests techniques - Documentation applicative technique - Guide de bonnes pratiques de développement - Guide de paramétrage applicatif - Rapport d’audit de sécurité - Gestion de configuration (mise à jour) - Code source des développements réalisés Compétences / Qualités indispensables: Python,AWS Cloud,API REST,Boto3,Clean Architecture Compétences / Qualités qui seraient un +: Familiarité avec l’environnement d’un grand groupe industriel
Mission freelance
Ingénieur réseau WAN / SDWAN (H/F) - 31
Mindquest
Publiée le
Python
Routage IP
Réseaux
3 mois
Toulouse, Occitanie
Nous recherchons un expert réseau WAN/SDWAN disposant d’une solide expertise technique et d’une forte capacité de troubleshooting niveau 3, pour intervenir sur des environnements critiques du Département Réseau Agences. Vous avez une expérience réussie dans des fonctions similaires réalisées chez un opérateur télécom, un intégrateur ou dans un environnement grand compte. Mission : Vos missions seront les suivantes : - Intervention sur du SD-WAN Fortinet - Intervention sur du Versa Networks - Connaissance des backbones opérateurs - Intégration des architectures réseaux WAN/SDWAN - Troubleshoot niveau 3 des solutions - Automatiser le build et le run via du développement Python Contexte technique : Double éditeurs sdwan Forti, Versa sur + de 6000 sites Collecte MPLS, Internet Automatisation indispensable du parc Python Routage dynamique BGP Très fortes compétences en Routing BGP, Fortinet SDWAN
Offre d'emploi
Responsable d'études statistiques - SAS, Power BI
KEONI CONSULTING
Publiée le
Reporting
Run
SAS
18 mois
20k-60k €
100-500 €
Paris, France
CONTEXTE Nous recherchons un(e) Chargé(e) d'études statistiques et de pilotage. Rejoignez une équipe de 7 collaborateurs au sein de l’équipe Pilotage et Reporting Omnicanaux. MISSIONS : • Prendre en charge la mise à jour du RUN o Assurer la mise à jour ad hoc des chiffres o Apporter des précos sur les optimisations possibles des reportings (compétences SAS, Power BI, rationalisation de la source et de la cible) o Finaliser la mise à jour de la cartographie du RUN et de la normalisation de la documentation • Pour un périmètre défini par le responsable du service : o Prendre en charge le RUN o Faire un état des lieux du périmètre confié o Apporter un ou plusieurs scénarios d’optimisation et refonte o Documenter les sources de données, process de mise à jour et règles de calcul o Mise en œuvre à la mise en place du scénario choisi Vous interviendrez, en collaboration avec l’ensemble de l’équipe sur des sujets variés tels que : • La rationalisation et automatisation des reportings d’activité et de production à destination de nos différentes Direction • La mise en place de process standard visant à développer et livrer les nouveaux suivis dans le respect de la cible définie (compréhension du contexte, sécurisation et validation de l’EDB ergonomie du suivi, documentation, définition des contrôles et back up, analyse des chiffres…) En faisant preuve de proactivité et curiosité, et dans une démarche d’amélioration continue PROFIL & COMPETENCES Une expérience MINIMALE de 5 années dans une fonction similaire est indispensable. SAS, Power BI
Offre premium
Mission freelance
Ingénieur Systèmes & Réseaux (Freelance)
Buy The Way
Publiée le
Active Directory
Cisco
Intune
6 mois
Paris, France
Nous recherchons un Ingénieur Systèmes & Réseaux freelance pour renforcer une équipe Infrastructure au sein de la DSI. Mission Vous intervenez au cœur de la DSI sur un périmètre mêlant exploitation (Run) et projets d’évolution de l’infrastructure IT. L’objectif est de garantir une infrastructure performante, sécurisée et moderne, au service des activités du cabinet. Responsabilités Maintien en condition opérationnelle de l’infrastructure systèmes & réseaux Administration Microsoft 365 (enjeu central du poste) Gestion de l’environnement hybride : serveurs on-premise + Azure Administration Active Directory / Entra ID Gestion Microsoft Intune (politiques, conformité, sécurité, déploiement applicatif) Gestion des mises à jour, correctifs de sécurité et actions de remédiation Participation aux revues de sécurité Documentation technique Contribution active aux projets d’évolution du SI Projets majeurs à venir 🚧 Infrastructure : renouvellement complet des serveurs 🔐 Identité : migration vers Okta 💻 Modern Management : déploiement / optimisation de Microsoft Intune
Offre d'emploi
Data engineer Python
UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Offre d'emploi
Expert infrastructure Autosys
AVA2I
Publiée le
Ansible
Python
12 ans
Île-de-France, France
Nous recherchons un Ingénieur Infrastructure expérimenté pour rejoindre une équipe et assurer le support et le maintien en condition opérationnelle (RUN) d’une infrastructure Autosys critique. Missions principales Assurer le RUN et le support de l’infrastructure Autosys . Participer à l’ exploitation quotidienne , aux incidents et aux astreintes. Contribuer à l’automatisation de certaines tâches via Ansible et Python. Collaborer avec les équipes de production et de développement pour maintenir la stabilité et la performance des systèmes . Documenter et proposer des améliorations de l’infrastructure
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2145 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois