Trouvez votre prochaine mission.
Mission freelance
Développeur Symfony / React – LILLE
Notre client, acteur majeur dans le secteur des transports publics, accompagne chaque jour des millions de voyageurs et s’engage à offrir des services personnalisés et de qualité. Dans le cadre du renforcement de ses équipes « Solutions & Opérations », il recherche un développeur Symfony / React expérimenté pour intégrer l’équipe dédiée au développement d’applications web. Missions En tant que développeur Symfony / React, vos principales responsabilités seront : Participer à l’analyse fonctionnelle des besoins et à la rédaction des spécifications techniques Développer des applications web en Symfony et React Collaborer avec les équipes pour le déploiement, les tests et le maintien en condition opérationnelle des applications Contribuer aux évolutions et à la maintenance des applications existantes
Mission freelance
SRE/Devops
La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en oeuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps.
Offre d'emploi
Expert Data Factory
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Mission freelance
Technicien Support Applicatif N2 (Digital Restauration)
Tu rejoins l’équipe digitale en charge des applications utilisées au quotidien par nos convives et opérationnels ( Toqla, soHappy, menu impression, charlotte…) En tant que support N2, tu es un acteur clé de la fiabilité de ces services. Tu assures le relais entre le support N1, et le N3 pour garantir une expérience utilisateur fluide et réactive. ⚙️ Responsabilités principales 📥 Analyse et prise en charge des tickets : réception, qualification, priorisation et traitement des incidents applicatifs complexes, en lien avec le support N1, l’équipe déploiement des outils digitaux et le N3. 🔍 Investigation technique avancée : Vérification du comportement métier via les interfaces. 1ère analyse via la console Lecture des logs applicatifs via Datadog , 🧪 Reproduction des anomalies sur des environnements de test, création de tickets de bug clairs, bien documentés (contexte,étapes,..). 📤 Escalade intelligente : collaboration étroite avec le N3 pour isoler les causes racine, suivre l’implémentation de correctifs, retester les solutions proposées. 📊 Suivi dans Azure DevOps : mise à jour des statuts, enrichissement des tâches, bouclage des résolutions. 📚 Documentation & capitalisation : Rédaction de procédures de contournement et de résolution, Participation à l’enrichissement de la base de connaissances interne. ✅ Contribution aux mises en production : exécution de scénarios de test simples (non-régression, tests correctifs) en lien avec le N3/ suivi post-mep 🚀 Amélioration continue : proposition d’optimisations (automatisation de tâches, alerting, surveillance proactive…), remontée des irritants utilisateurs ou techniques.
Mission freelance
AWS Cloud Engineer
Responsable de la mise en œuvre de solutions dans un ou plusieurs des domaines techniques suivants : architecture d’infrastructure, technologies de conteneurs, calcul sans serveur, bases de données, connectivité réseau, sécurité et conformité. Gestion de la maintenance des environnements d’infrastructure avec des processus standardisés et des outils automatisés. Rédaction de documentation détaillée et de conception de bas niveau, avec coordination avec les autres membres de l’équipe. Responsabilité et maintenance de la plateforme de supervision.
Mission freelance
DEVOPS Engineer
Hays recherche un profil Medior Devops Engineer avec une solide expertise en Apache Kafka pour intervenir sur un projet stratégique auprès d’un client basé au Luxembourg . Ce poste en Full remote offre une grande flexibilité et l’opportunité de travailler avec des technologies de pointe dans des environnements cloud natifs. Les missions incluent la gestion de clusters Kafka, l’automatisation de l’infrastructure avec Terraform et Ansible, la mise en place de pipelines CI/CD, ainsi que la supervision et la sécurisation des services. Le profil idéal contribuera à des solutions à fort impact dans un cadre agile et collaboratif.
Mission freelance
Architecte technique
Pour le compte de l' un de nos clients dans le domaine du retail, nous recherchons un Architecte technique. Vos missions principales seront: de définir l' architecture technique des socles hébergeant des solutions applicatives de verifier et analyser les impacts techniques des nouvelles solutions sur l' existant de preconiser les choix techniques en vue d'assurer la cohérence du SI; d'organiser les choix de veille technologique de participer aux revues d'architecture projets Cette mission est à 100% présentiel
Mission freelance
Product Owner Web Confirmé- WordPress (Divi)
Profil Intitulé : Product Owner / Web WordPress (Divi) Compétences techniques : Maîtrise de WordPress et du thème Divi Connaissance des plugins WordPress (atout) Capacité à gérer le paramétrage et la maintenance évolutive d’un site web en production Notions d’infrastructure cloud (Azure) appréciées Compétences fonctionnelles / rôle : Expérience Product Owner / gestion de projet digital Capacité à traduire les besoins métier (équipe chantier / clients internes) en fonctionnalités techniques Mise à jour régulière des contenus en fonction de l’avancement des travaux Qualités personnelles : Esprit d’équipe et collaboration Curiosité et force de proposition Communication aisée avec les équipes opérationnelles Anglais requis Disponibilité pour déplacements sur chantier Fiche de poste Mission : Assurer le remplacement temporaire de Latifa à partir du 1er décembre pour le suivi, la maintenance et l’évolution d’un site WordPress en production . Le site informe les usagers sur l’accès aux chantiers via QR Codes et contenus actualisés hebdomadairement. Activités principales : Paramétrage des contenus (70%) : mise à jour hebdomadaire, adaptation selon l’avancement des travaux Build / Maintenance évolutive (20%) : implémentation de nouvelles fonctionnalités, utilisation de plugins Run / Support (10%) : suivi des incidents et corrections mineures Environnement de travail : CMS WordPress, thème Divi Plugins WordPress Cloud Azure / infrastructure hébergée Équipe : PO senior, responsable commercial, architecte logiciel Clients : interne (agence COLAS) et externes (collectivités publiques et citoyens) Profil recherché : WordPress / Divi confirmé Expérience Product Owner Esprit d’équipe, communication et force de proposition Anglais requis Mobilité pour déplacements sur chantier
Offre d'emploi
Ingénieur devOps
Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation BigData Az DataLake, Az EventHub, Databricks, ADF - Confirmé - Impératif Microsoft Cloud Azure - Confirmé - Impératif Infrastructure as a code (ARM, YAML) - Confirmé - Impératif Intégration/déploiement continu (Git, Az DevOps) - Confirmé - Impératif Français Courant (Impératif) Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation
Offre d'emploi
Chef de Projet IT Paie et Gestion des Absences
Nous recherchons un Chef de Projet pour diriger un projet de migration d'outils Paie et Gestion des Absences. Responsabilités principales : Responsable de la livraison de bout en bout (End-to-End) du projet Digiteam : Planification, alignement et suivi proactif des progrès, résolution des problèmes et initiation des mesures correctives appropriées. Assurer que l'équipe de livraison respecte les normes du client (y compris les environnements, la gestion des changements (Change Control), la gestion des demandes de service (SR Management)). Garantir la conformité globale de la mise en œuvre avec les normes de Cybersécurité, des PMO et des Opérations, ainsi qu'avec les contrôles techniques de Contrôle Interne. Rapportage sur les différents flux du projet à intervalles réguliers auprès des Comités Opérationnel et de Pilotage. Gérer les dépendances et les interfaces entre les différents chantiers du projet (workstreams). Gérer les risques et les problèmes du projet pour en assurer le succès. Point d'escalade pour les responsables des flux du Département IT. Coordonner et contrôler la cohérence des livrables de Conception de Solution et de Construction avec la conception de l'Architecture E2E (de bout en bout) et les approches convenues pour l'Intégration, la Migration des Données et les Tests. Travailler en étroite collaboration avec la direction et les experts techniques d'ADP, agir comme garant des meilleures pratiques de la solution SAAS en assurant le respect des processus et des normes système d'ADP. Présider le Comité de Contrôle des Changements (Change Control Board) pour examiner les évolutions en coordination avec tous les flux et pour contester les incohérences et prévenir les conflits. Dans l'ensemble, le Chef de Projet s'assure que les projets techniques sont réalisés dans les délais, dans les limites du budget et atteignent les normes de qualité souhaitées.
Offre d'emploi
Tech Lead Data Engineer
Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Offre d'emploi
Ingénieur Cloud Azure
Dans le cadre de son programme GoToCloud, nous recherchons un ingénieur Cloud Azure qui participera à la construction de sa plateforme Azure ainsi qu’à son développement dans le cadre de projets Move to Cloud. Objectifs et livrables Responsabilités : Concevoir, déployer et administrer des infrastructures cloud sur Microsoft Azure. Participer à la migration des applications et des données vers Azure. Garantir la sécurité, la disponibilité et la performance des plateformes cloud. Automatiser les déploiements et la gestion des ressources via des outils d’Infrastructure as Code (IaC) (ARM, Terraform, Bicep…). Fournir une expertise technique et un support aux équipes projet. Rester à jour avec les évolutions technologiques et les nouvelles fonctionnalités Azure. Rédiger la documentation technique et accompagner les équipes internes à l’utilisation des solutions mises en place. Assurer le support de niveau 2/3 sur les incidents liés à l’infrastructure cloud. Compétences requises : Maitrise du cloud Microsoft Azure, notamment des sujets de plateforme (réseau, identité, conformité…) Expérience avérée dans le move to cloud d’applications Bonne connaissance des concepts d’IaC, notamment de l’outil Terraform Compétences en scripting et automatisation (PowerShell, Azure CLI, Python) Conception et mise en œuvre de pipelines CI/CD (Github, Azure DevOps…) Déploiement et administration de conteneurs et de solutions d’orchestration de conteneurs (Kubernetes) Excellentes capacités d’analyse et de résolution de problèmes Bonnes compétences en communication et en collaboration
Mission freelance
Expert API Management- Marketplace
Expert API Management / Marketplace Expert API Management / API Platform Architect / Senior API Engineer Expérience professionnelle : 7 à 12 ans d’expérience dans le développement, la gestion et l’industrialisation des API. Expérience sur des API publiques et partenaires , idéalement dans le cadre de marketplaces ou d’ écosystèmes ouverts . Participation à des projets d’ ouverture de services via API sécurisées et industrialisées. Compétences techniques : Plateformes API : Apigee, Mulesoft, Axway, Kong, WSO2, ou équivalent. Protocoles et standards : REST, SOAP, OAuth2, JWT, OpenID Connect. Architecture : Microservices, API-first design, architectures cloud (Azure, AWS, GCP). Outils DevOps : Git, Jenkins, Terraform, Docker, Kubernetes. Sécurité & conformité : maîtrise des bonnes pratiques de cybersécurité et des normes internes. Compétences comportementales : Esprit analytique et critique , capable de challenger les workflows existants. Autonome , rigoureux et orienté résultats. Capacité à communiquer clairement avec des équipes techniques et non techniques. Sens de la collaboration avec architectes et responsables techniques pour concevoir l’architecture cible. Livrables attendus : Consolidation des études et benchmarks existants. Validation et optimisation des workflows fonctionnels de la marketplace. Analyse de faisabilité technique et conformité. Co-conception de l’architecture cible de la place de marché API, sécurisée et évolutive.
Offre d'emploi
DevOps Ingénieur débutant à confirmé
KYLE-CONSULTING recherche pour un de ses clients grand compte un Ingénieur SysOps dynamique pour rejoindre une équipe technique innovante. Missions : Participer à l'administration des systèmes Windows et Linux (RedHat). Contribuer à l'automatisation des déploiements avec Ansible et sur le cloud Azure. Utiliser Terraform pour la gestion de l'infrastructure as code. Collaborer avec les équipes de développement pour améliorer les processus CI/CD. Assurer la surveillance et la maintenance des environnements de production. Compétences requises : Expérience de 1 à 3 ans en tant que DevOps. Bonne maîtrise de Microsoft Azure et Azure DevOps Compétences en administration système Linux (RedHat), Windows. Connaissance des outils d'automatisation comme Ansible et Terraform. Connaissance des outils de CI/CD Bonnes connaissances sur les outils de monitoring (Prometheus, Grafana, ...) Qualifications : Bac +4 ou Bac +5 en informatique. Esprit d'équipe, autonomie, et capacité à résoudre des problèmes. Lieu : Ile-de-France Type de contrat : CDI, CDD, Freelance
Offre d'emploi
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Mission freelance
Platform Reliability Engineer
La mission proposée s’inscrit dans une approche SRE et DevOps . À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité , l’ exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : Intégration et exploitation opérationnelle des applications de la plateforme. Vérification de la conformité des livraisons avec les standards (conventions de nommage, qualité des logs, documentation, monitoring). Relecture et amélioration de la documentation de chaque release. Définition et suivi des indicateurs de fiabilité ( SLI/SLO ) et des error budgets , en lien avec les équipes de développement. Configuration et maintien dans Datadog des dashboards, règles d’alerting et runbooks, avec amélioration continue de l’observabilité. Corrélation des logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). Mise en place et amélioration des mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et procédures de bascule (failover). Facilitation des post-mortems après incidents, documentation des enseignements et pilotage des actions correctives techniques ou organisationnelles. Mise à jour et amélioration des pipelines de déploiement dans Azure DevOps . Maintenance et évolution des Helm charts utilisés pour le déploiement sur Kubernetes (AKS) . Intégration de SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. Collaboration avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. Support de niveau 3 sur les services de la plateforme et contribution aux analyses post-incident.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Shein Dicount Code [LFX7S] 30% OFF New Arrivals
- {Deal} Shein Coupon Code [LFX7S] 50% OFF Existing Customers in 2025
- {New} Shein Coupon Code [LFX7S] 40% OFF for First Time Users
- Activate"} Shein Black Friday Coupon Code [LFX7S] 90% OFF For New & Existing customer
- Shein Black Friday Gutscheincode [LFX7S]: 90 % Rabatt für Neu- und Bestandskunden
- Codice sconto Shein [LFX7S] 70% di sconto sugli articoli in saldo