Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 360 résultats.
Freelance

Mission freelance
DÉVELOPPEUR SYMFONY SENIOR (H/F)

Keypeople Consulting
Publiée le
API Platform
CI/CD
Confluence

6 mois
400-460 €
Île-de-France, France
Je recherche un Développeur Symfony Senior pour intervenir sur des projets web à fort enjeu technique, dans un environnement agile et orienté qualité. Vos missions • Développer et faire évoluer des applications web en Symfony 6+ • Concevoir des architectures robustes, évolutives et maintenables • Développer des APIs performantes et sécurisées • Optimiser les performances applicatives et la gestion du cache • Participer aux choix techniques et aux bonnes pratiques de développement • Garantir la qualité du code via une forte culture de tests Compétences recherchées Symfony 6+ (Service Container, routing, events) Doctrine ORM / SQL (MySQL, MariaDB ou PostgreSQL) API Platform ou développement REST natif Tests unitaires et fonctionnels (PHPUnit, Behat ou Pest) Twig / intégration front moderne Performance & cache (Redis, Varnish, cache HTTP) Git Méthodologie Agile (Scrum / Kanban) Les plus Expérience sur des projets à fort trafic / médias / streaming Docker / Docker-compose CI/CD (GitLab CI ou équivalent) Jra / Confluence Sensibilité performance et SEO 👤 Profil attendu Plus de 7 ans d’expérience significative sur Symfony Senior autonome, force de proposition Très bon relationnel et capacité à échanger sur les choix techniques
Freelance

Mission freelance
Expert Kafka - Elastic H/F

AGH CONSULTING
Publiée le
Ansible
Apache Kafka
CI/CD

6 mois
300-480 €
Niort, Nouvelle-Aquitaine
Dans le cadre du développement et de l'industrialisation d'une plateforme de streaming de données, nous recherchons pour notre client, un(e) Expert Kafka capable d'accompagner les équipes techniques dans la mise en place, l'automatisation et l'optimisation de la plateforme. Le consultant interviendra au sein d'une squad en collaboration étroite avec les équipes internes afin d'améliorer les pratiques d'exploitation, d'industrialisation et de supervision de l'environnement. A ce titre, vos principales missions seront les suivantes : -Accompagner les équipes dans le choix et l'utilisation des solutions techniques -Participer à l'industrialisation et l'automatisation de la plateforme Kafka -Contribuer aux études techniques et développements -Définir et faire appliquer les normes, méthodes et outils -Assurer une veille technologique et informer sur les évolutions Livrables attendus -Production de dossiers d'expertise -Mise à jour des dossiers d'architecture -Mise à jour des éléments de suivi dans JIRA -Production de livrables techniques et référentiels d'expertise
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance
CDI

Offre d'emploi
INGENIEUR SYSTEMES LINUX

Groupe Aptenia
Publiée le
Administration linux
Administration système
CI/CD

6 mois
40k-55k €
300-550 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Définir les procédures d’exploitation : recueillir et analyser les besoins, industrialiser les tâches d’administration, définir et diffuser les consignes de mise en production, respecter les normes et méthodologies, mettre en place les indicateurs de performance et mettre à jour l’outil de gestion des configurations. - Réaliser et automatiser l’intégration des systèmes : installer les équipements et serveurs from scratch, définir les tâches de maintenance (supervision, sauvegarde, restauration), gérer les habilitations et la sécurité, installer et configurer les logiciels middleware et déployer les applications d’infrastructure. - Assurer la maintenance des systèmes : maintenance corrective, évolutive et préventive, supervision du RUN et suivi des alertes, gestion des incidents N1/N2 et des changements en production, amélioration continue et optimisation des performances. - Assurer le support aux utilisateurs : support technique aux équipes de développement (DEV, RECETTE, PREPROD, PROD) et anticipation des besoins et évolutions du système.
Freelance
CDI

Offre d'emploi
Ingénieur de production APS

VISIAN
Publiée le
Ansible
CI/CD

1 an
40k-45k €
400-500 €
Île-de-France, France
Ingénieur Production APS Description du poste Le bénéficiaire demande une prestation d'ingénierie de production APS pour soutenir le déploiement du système d'information d'affacturage. Les principales missions sont l'installation, la mise en place et la maintenance des nouvelles applications. Missions principales Participation aux différentes phases des projets d'intégration des nouvelles applications dans le système d'information : Installation et exploitation des environnements Gestion des configurations et des livraisons
Freelance

Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME

SKILL EXPERT
Publiée le
AWS Cloud
Gitlab

2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : •⁠ ⁠Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS •⁠ ⁠Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud •⁠ ⁠Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération •⁠ ⁠Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives •⁠ ⁠Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps •⁠ ⁠Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout •⁠ ⁠Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre •⁠ ⁠Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : •⁠ ⁠Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine •⁠ ⁠Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS •⁠ ⁠Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement •⁠ ⁠Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions •⁠ ⁠Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt •⁠ ⁠Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Lyon

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance
CDI

Offre d'emploi
OPS sénior - Cloud AWS / DevOps

VISIAN
Publiée le
AWS Cloud
Red Hat

1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
CDI

Offre d'emploi
Data Engineer GCP/AWS

█ █ █ █ █ █ █
Publiée le
BigQuery
DevOps
Python

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
CDI

Offre d'emploi
Tech Lead-Java IA

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Architecture
CI/CD

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Consultant MSBI

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

4 mois
40k-48k €
500 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet MDM Marketing ou RFE. La mission doit débuter dès que possible pour une durée de 3-4 mois . ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
3360 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous