L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 273 résultats.
Offre d'emploi
Data Engineer Python / AWS
Publiée le
AWS Cloud
PySpark
Python
3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Mission freelance
Développeur Python, C# et Sql
Publiée le
DevOps
Python
Reporting
18 mois
100-300 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 2 ans plus Métiers Fonctions : Etudes & Développement,Concepteur Spécialités technologiques : API, Reporting ; ERP, Devops MISSIONS Dans un premier temps: A) Travailler sur le développement/l'automatisation de nouveaux outils/services en Python/Sql/Devops B) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application jusqu'à leur autonomie 2) Dans un second temps: A) Développement de TNR sous Robot Framework Les livrables sont : - Documentation - Code source de qualité - Reporting d'activité Expertise souhaitée SOFTWARE DESIGNER / DEVELOPER CONCEPTEUR / DÉVELOPPEUR LOGICIEL Compétences techniques : Développement en C# - Confirmé - Impératif Développement en python - Confirmé - Impératif Développement avec robot framework - Confirmé - Souhaitable Développement en Pl/Sql - Junior - Souhaitable À la demande du Métier, il/ elle analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Activités et tâches : ANALYSE : - Contribue à la définition des spécifications générales - Réalise l'analyse technique et l'étude détaillée - Adapte et paramètre les progiciels applicatifs (ERP) - Réalise le prototypage QUALIFICATION : - Élabore les jeux d'essais pour les tests unitaires d'intégration - Effectue les tests unitaires - Identifie et traite les dysfonctionnements DÉVELOPPEMENT : - Réalise les modules (objets et composants logiciels) - Assemble les composants - Rédige les documentations MAINTENANCE : - A en charge la maintenance corrective - A en charge la maintenance évolutive - Administre les composants logiciels réutilisables et met à jour la nomenclature de ces composants
Offre d'emploi
DEVOPS / Scrum Master
Publiée le
pytest
Python
1 an
40k-45k €
400-650 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Une filiale d'un grand groupe bancaire, au cœur de la transformation technologique du Groupe. Notre mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Nous cherchons un profil DevOps pour renforcer la squad Oracle et assurer le rôle de Scrum Master de la squad. Le profil que nous recherchons Ce rôle n'est pas fait pour tout le monde. Il demande une combinaison de plusieurs qualités : excellence technique, posture d'accompagnement, et plaisir à coder pour les autres.
Offre premium
Offre d'emploi
INGENIEUR NETDEVOPS / DEVOPS ET RESEAU FULL PRESENTIEL (NATIONALITE FRANCAISE)
Publiée le
Ansible
DevOps
Palo Alto
1 an
Île-de-France, France
Offre de mission – NetDevOps (H/F) – Secteur Défense – Vélizy & Élancourt et Gennevilliers Nous recherchons un NetDevOps expérimenté pour rejoindre l’un de nos clients majeurs du secteur de la Défense , situé à Vélizy et Élancourt . Vous interviendrez au sein d’équipes techniques engagées dans la modernisation et l’automatisation des infrastructures réseaux, avec une forte orientation vers les pratiques DevOps. Votre rôle consistera à participer au développement, au déploiement et à l’industrialisation de solutions d’automatisation réseau. Vous contribuerez également à l’amélioration continue des environnements techniques, à la mise en place de bonnes pratiques NetDevOps, ainsi qu’au renforcement de la fiabilité et de la sécurité des architectures. 🔧 Compétences techniques attendues : Maîtrise d’ Ansible pour l’automatisation et la gestion de configuration Excellentes compétences en Python pour le développement de scripts et d’outils internes Connaissances réseaux solides (protocoles, équipements, supervision) Bonne compréhension des outils et pratiques DevOps liés à l’automatisation et à l’intégration continue 📍 Localisation : Gennevilliers & Élancourt / Vélizy ⚠️ Full présentiel ⚠️ ⏱ Durée : Mission longue 🚀 Démarrage : ASAP
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Offre d'emploi
Développeur Python orientation DevOps - Secteur télécom - Paris (H/F)
Publiée le
DevOps
Docker
Kubernetes
52k-57k €
Paris, France
Télétravail partiel
Missions Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Compétences techniques recherchées Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
Mission freelance
DevOps Engineer - DeepTech
Publiée le
Azure DevOps
Bash
CI/CD
3 mois
300-400 €
Paris, France
Depuis maintenant dix ans, notre client s’est fait connaitre sur le marché en tant en tant que société innovante. Il propose des solutions de détection et de connectivité dans le contrôle des ondes. Son expertise lui a permis de faire breveter ses produits et de les commercialiser à l’international. La société souhaite faire appel à un Consultant Extérieur afin de venir en renfort et ainsi respecter les deadlines projet. · Environnements complexes · Projet stratégique d’industrialisation logicielle · Produits brevetés
Mission freelance
Data Engineer
Publiée le
Azure
Databricks
PySpark
6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Mission freelance
Développeur Python /devops - Paris ou Orleans
Publiée le
Python
6 mois
400-420 £GB
Paris, France
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
POT8794 - Un développeur Python /devops sur Orléans
Publiée le
Python
6 mois
Orléans, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout
Mission freelance
Développeur Python /devops - Paris ou Orleans
Publiée le
Python
6 mois
400-420 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Mission freelance
Lead DevOps / Scrum Master H/F
Publiée le
Agile Scrum
DevOps
Python
1 an
600-650 €
Montreuil, Île-de-France
Télétravail partiel
Vous rejoindrez l'entité au cœur de la transformation technologique du Groupe dont la mission est de concevoir, développer et opérer des plateformes d'infrastructure modernes (PaaS, IaaS, CaaS) pour l'ensemble de nos métiers. Notre client recherche un profil DEVOPS pour renforcer la squad Oracle et assurer le rôle de Scrum Master de la squad pour accompagner les équipes. Ce rôle demande une combinaison de plusieurs qualités : excellence technique, posture d’accompagnement, et plaisir à coder pour les autres.
Offre d'emploi
Développeur Data (Bordeaux)
Publiée le
Apache Kafka
DBT
Microsoft Power BI
3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
273 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois