Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 959 résultats.
Freelance

Mission freelance
Tech Lead SRE (Platform team) F/H

Publiée le
AWS Cloud
Gitlab
Site Reliability Engineering (SRE)

12 mois
500-600 €
Évry, Île-de-France
Télétravail partiel
Vous intégrerez lʼéquipe “Platform Team” de la tribe Paiement de la Digital Factory en tant que Tech Lead SRE – Site Reliability Engineer (H/F). Vous superviserez l'ensemble des activités SRE et porterez la vision technique de l'équipe : Participerez à la conception et mise en œuvre de lʼarchitecture résiliente et évolutive des plateformes (cloud, containers, automatisation Définition des standards SRE, des bonnes pratiques DevOps, et de la stratégie technique (CI/CD, observabilité, sécurité, gestion des incidents) Encadrement et développement de lʼéquipe SRE (mentorat, pair programming, formation) Gestion des relations techniques avec les autres équipes Platform et fournisseur cloud Solide maîtrise des outils dʼinfrastructure (Kubernetes, Docker, Terraform, monitoring avancé) et des langages (Python, Go, Java) Expérience confirmée en leadership technique, capacité à prendre des décisions structurantes, à arbitrer et à communiquer dans des environnements complexes Vous interviendrez sur tous les aspects de maintien en condition opérationnel des applications constituant la tribe Paiement, en veillant à l'optimisation et la stabilisation des environnements de production et hors production. Vous collaborerez avec les autres équipes de la tribe ou externe à celle-ci pour résoudre les problèmes liés la configuration, au déploiement ou au déboggage des applications. Vous devrez suivre l'observabilité des applications constituant la tribe en levant les alertes et en effectuant les premières analyses en cas de pannes détectées. Optimiser les performances des applications déployées dans le cloud et garantir leur scalabilité en fonction des besoins. Assurer l'optimisation des infrastructures en termes de coûts et d'utilisation. Veiller à l'évolution et la maintenance des processus de surveillance (observabilité) et du monitoring des infrastructures et applications déployées dans le cloud Responsabilités Responsable des actions de sécurité et conformité de la plateforme Paiement (en collaboration avec lʼarchitecte et les Tech Lead) En collaboration avec l'architecte et les Tech Lead, concevoir et faire évoluer l'architecture cible de la plateforme Paiement en garantissant résilience, performance et scalabilité Participer activement à la définition des patterns d'architecture reproductibles (blueprints : networking, sécurité, déploiement, observabilité) Participer activement aux choix technologiques structurants et aux orientations d'urbanisation cloud et plateforme Construire et améliorer les pipelines CI/CD (GitLab CI) incluant tests automatisés, scans sécurité, qualité et déploiements progressifs Réduire le travail manuel en automatisant les opérations répétitives (scripts, jobs, workflows) Accompagner les équipes de développement dans l'adoption de ces modèles Analyser, corriger et suivre les tickets (Service Now / Jira) de support niveau 3 émanant des différents supports de niveau 2 et de tout l'écosystème (plateforme de paiement et partenaires externes de paiement). Effectuer les traitements de maintenance en condition opérationnelle incluant les rattrapages en cas d'incidents, les opérations de bulk. Maintenir à jour la documentation des infrastructures et de toutes les procédures de maintien en condition opérationnelle de l'équipe. Participer au handover lors de livraison en production de nouvelles features. Livrer des rapports techniques « on demand » concernant les performances/incidents de la plateforme. Participer et être force de proposition dans toutes les réunions de suivis avec les différentes équipes de supports. Analyser et être capable de traduire lʼanalyse vers les équipes de développement en cas de correction à mettre en place suite à un ticket dʼincident ou d'optimisation. Mettre en place, maintenir et suivre au jour le jour les systèmes de surveillance pour assurer la disponibilité et la performance des applications (Splunk Observability). Réagir rapidement en cas de défaillance ou de panne, analyser les causes et proposer des solutions pérennes. Suivre les coûts de la plateforme AWS et détecter au plus tôt les dérives puis proposer des solutions pour rester dans les budgets (approche FinOps structurée).
CDI
Freelance

Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)

Publiée le
Ansible
AWS Cloud
Azure

3 ans
Puteaux, Île-de-France
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Freelance

Mission freelance
Développeur / Data Engineer Observabilité h/f

Publiée le
Azure
DevOps
Grafana

6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Freelance

Mission freelance
Analyste IT Risque de Marché

Publiée le
AWS Cloud
Gitlab
Jupyter Notebook

6 mois
500-550 €
Paris, France
Télétravail partiel
Poste : Analyste IT Risque de Marché 📍 Paris, France 🎯 Contexte Vous rejoindrez une équipe Risque de Marché en charge de la conception du cadre de risque, du suivi opérationnel, de la modélisation et de l’évolution des outils de risk management. Le poste s’inscrit dans un environnement innovant lié aux produits dérivés et aux actifs digitaux. 🚀 Vos missions 🧪 Développement & Data Risk Développer des scripts, outils, rapports et dashboards en Python : analyse de marge, backtesting, contrôles qualité, analyse de portefeuille, outils de gestion du défaut… Contribuer à la construction d’une librairie Python robuste et documentée. Garantir la fiabilité et l’automatisation des scripts dans un environnement local et cloud. 📊 Business Analyse Recueillir et analyser les besoins fonctionnels liés aux risques de marché & opérationnels. Rédiger les spécifications fonctionnelles / user stories. Participer activement aux ateliers et réunions projets, identifier les impacts et proposer des solutions. Préparer et exécuter les tests, documenter les résultats et participer à la mise en production. Contribuer à la stratégie de déploiement et former les autres membres de l’équipe. 🎓 Compétences clés Très bonne maîtrise de Python et des outils de versioning (GitLab). Connaissance de Jupyter, AWS ou Snowflake appréciée. Excellente communication en français et anglais. Expérience projet dans la finance de marché (BA ou testing). Compréhension des notions de risque de marché et des produits dérivés (Delta, Gamma, Vega…). Rigueur, autonomie, esprit analytique, capacité à anticiper.
Freelance

Mission freelance
CLOUD DELIVRY MANAGER H/F

Publiée le
Azure
Google Cloud Platform (GCP)
PaaS (Platform-as-a-Service)

1 an
400-500 €
Paris, France
Au sein de l’équipe IT Production, le/la Cloud Delivery Manager est responsable de la supervision et de l'optimisation de l'environnement de production cloud de l'entreprise, en assurant la stabilité, la performance et la sécurité des systèmes. Il/Elle pilote la gestion des incidents, des problèmes et des changements, et assure la communication avec les équipes IT à l'échelle mondiale. Il/Elle travaille en étroite collaboration avec les équipes internes, les prestataires d'infogérance et les partenaires cloud, afin de garantir la continuité des services et la satisfaction des utilisateurs.
Freelance

Mission freelance
Responsable SysOps- Infra& Cloud(H/F)

Publiée le
Architecture ARM
AWS Cloud
CentOS

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Description du poste Le/la Responsable SysOps encadre et anime une équipe d’une quinzaine de collaborateurs et prestataires, experts des environnements OnPremise, réseau/sécurité et Cloud public (AWS). Rattaché(e) au Responsable de l’entité Plateforme IT, il/elle est garant(e) de la disponibilité, de la performance, de l’évolutivité, de la sécurité et de la maîtrise des coûts des infrastructures. Dans une organisation où la structure hiérarchique est décorrélée de la structure opérationnelle, le rôle nécessite une collaboration transverse forte avec les Product Owners, le Product Manager et le Responsable DevOps, afin de garantir le delivery et l’atteinte des objectifs. L’équipe SysOps couvre trois périmètres pilotés par des Lead Tech : Cloud privé / OnPremise : compute, stockage, virtualisation, OS, datacenter, backup Réseau et sécurité : LAN/WAN, téléphonie, load balancer, firewall Cloud public (AWS) : Landing Zone, gouvernance, services managés L’entité Plateforme IT fournit aux équipes DSI des infrastructures, plateformes et produits “as a service” pour accélérer le delivery, renforcer le DevOps et accroître l’autonomie des équipes métiers. Missions1. Encadrer et animer l’équipe Organiser et gérer la charge de l’équipe en fonction des besoins opérationnels. Assurer le delivery, la performance et l’atteinte des objectifs. Développer les niveaux de compétence et les recouvrements (polyvalence). Uniformiser et harmoniser les pratiques entre cloud privé, cloud public et réseau. Décliner la vision stratégique de l’entité et de la DSI. Favoriser la collaboration, la confiance et l’engagement. Organiser et animer les points réguliers avec les Leads Tech et l’équipe. 2. Suivre et accompagner les collaborateurs Participer aux recrutements (internes et externes). Assurer le suivi RH quotidien : congés, administratif, intégration. Définir et suivre les plans de formation et de développement. Veiller au respect du cadre organisationnel et opérationnel. Mener les entretiens annuels et de suivi. 3. Gérer la relation avec les ESN Assurer le pilotage commercial et contractuel. Gérer la rotation des prestataires et l’adéquation aux besoins. Participer aux processus de sélection et aux entretiens. 4. Piloter KPIs, SLAs et reporting Définir et suivre les KPIs en lien avec les objectifs de la DSI. Mettre en place un reporting clair, régulier et transverse. Suivre les SLAs, la qualité de service et la satisfaction interne. 5. Gérer le budget et les ressources Construire et suivre le budget de l’équipe (OPEX/CAPEX). S’assurer du respect des consommations (jours, prestations, ressources). Gérer les demandes d’achat et les relations fournisseurs. Suivre les imputations projets et activités. Compétences techniques requises Très bonnes connaissances des infrastructures OnPremise : compute, stockage, virtualisation, OS, datacenter, backup. Bonne maîtrise des environnements Cloud Public, idéalement AWS (landing zone, architecture, sécurité, services managés). Compréhension globale des infrastructures réseaux et sécurité (LAN/WAN, load balancing, firewalls, téléphonie). Compétences transverses et comportementales Expérience avérée d’encadrement d’équipes techniques internes et externes. Excellentes compétences de leadership agile , basées sur la confiance, l’autonomie et la collaboration. Capacité à motiver , fédérer et instaurer un climat de travail positif. Excellente communication interne et externe. Capacité à gérer et recadrer de manière factuelle et constructive. Capacité à gérer des situations de tension ou de conflit. Sens aigu de l’organisation et du respect du cadre de travail. Vision orientée amélioration continue et montée en compétence des équipes. Bonne connaissance du cadre légal du travail et des bonnes pratiques RH. Maîtrise du pilotage budgétaire. Formation Bac +5 : école d’ingénieur ou université (informatique, systèmes, réseaux). Formation ou certification en management appréciée. Expérience 8 à 10 ans d’expérience dans le management d’équipes techniques infrastructures et cloud. Solide expérience technique en production, exploitation et architecture. Expérience confirmée dans un contexte agile à l’échelle (SAFe apprécié).
Freelance

Mission freelance
Architecte Data – Expert Azure

Publiée le
Azure
Big Data

3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
Azure DevOps
Databricks

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Freelance

Mission freelance
Expert Collibra

Publiée le
AWS Cloud
Collibra
Databricks

3 mois
500 €
Paris, France
Télétravail partiel
Opportunité : Expert Collibra - Transformation Data (Secteur Énergie) Rôle : Expert Collibra (5-7 ans d'expérience) Lieu : Paris (mode hybride 2-3 jours/semaine) Durée : 3 mois (démarrage ASAP, fin 31/03/2026) Budget Max : 500 €/jour Le Contexte : Grande entité du secteur de l'énergie, en pleine migration vers une architecture Data Cloud moderne (AWS, Databricks). L'enjeu est de garantir une Gouvernance de la Donnée infaillible pour piloter la performance. La Mission Stratégique : L'expert Collibra est au cœur de la sécurisation et de la traçabilité des données entre deux plateformes critiques : AWS (SMUS) et Databricks Unity Catalog (DBX) . L'objectif est de s'assurer que Collibra est non seulement un catalogue, mais le moteur de la politique d'accès et de traçabilité inter-systèmes . Responsabilités Clés : Métadonnées & Traçabilité (Lineage) : Définir les connecteurs et les mécanismes d'ingestion des métadonnées et de la traçabilité des transformations Data entre AWS et Databricks. Gestion des Accès : Concevoir l'intégration de Collibra avec les mécanismes de sécurité Cloud (AWS IAM/IDC, Lake Formation) et Databricks (Unity Catalog). Il s'agit d'évaluer l'automatisation de l'octroi/révocation des accès et de mettre en place des workflows d'audit robustes. Profil Recherché : Un architecte pratique et un expert de l'implémentation Collibra, maîtrisant les enjeux de sécurité dans les écosystèmes AWS et Databricks .
Freelance

Mission freelance
Développeur EBX Senior

Publiée le
Apache Kafka
API REST
AWS Cloud

3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Freelance
CDI

Offre d'emploi
Expert Qualité, Process & CMDB Management - Service Now

Publiée le
Automatisation
AWS Cloud
Azure

12 mois
40k-48k €
450-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission : Dans le cadre de la mise en œuvre d’une solution CMDB (gestion des actifs IT/OT, Legacy et Cloud) et de l’amélioration de l’Observabilité pour renforcer les performances, la cybersécurité, la conformité (NIS2, ISO 62443, NIST CSF, ISO 27001) et le maintien en conditions opérationnelles (MCO / MCS) de notre client final nous recherchons un Expert Qualité, Process & CMDB Management spécialisé Service Now Tâches à réaliser : 2 instances de CMDB open source (On-premise ou sur base IaaS / PaaS / SaaS) communicantes avec ServiceNow (pas d’exigence de synchro continue) et ISTAR · Prise en compte des CI côté AWS (visibilité et optimisation des ressources Cloud) · Modèle de données adapté au secteur industriel OT supportant différentes classes de CI selon criticité · Découverte automatisée (SNMP/agent), cartographie, reporting, tableaux de bord, extractions (csv/pdf), workflows de mise à jour, API d’interfaçage · Documentations complètes (DAT, DEX, manuels, procédures), support à déterminer la 1ère année au-moins durant les 6 mois à l’issue du transfert de compétences (VBAF / VSR) · Définition Gouvernance et responsabilités opérationnelles (RACI à proposer) Outils · Solutions open source à privilégier (contexte PME à ETI, autonomie à l’égard d’éditeurs commerciaux, absence de couts de redevances logicielles / licence) · CMDB : fonctionnalités ITSM recouvrant a minima ce que propose par exemple « iTop » avec possibilité d’interfaçage, adaptations à la marge (spécifique limité) · Observabilité : équivalent fonctionnel proposé par exemple par « OpenObserve », fonctions évoluées correspondant à « l’état de l’art » (standard OpenTelemetry, workflow et automatisation, dashboards interactifs, contexte et tagging avancée des ressources, disposant nativement d’une brique d’IA idéalement)
Freelance

Mission freelance
onsultant en exploitation applicative / développement

Publiée le
AWS Cloud
Docker
Javascript

3 ans
400-480 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
recherche un consultant en exploitation applicative / développement pour : Gérer l’exploitation des applications internes Réduire la charge opérationnelle via des développements spécifiques Assurer la communication entre utilisateurs, équipes produit et développement Mission en régie, facturée au réel (jours prestés). Gestion des tickets (Jira Service Management) Résolution d’incidents / demandes non couvertes par les outils existants Développement de modules et outils pour réduire la charge d’exploitation Rédaction de documentations techniques Maîtrise d'Oracle PL/SQL Connaissances en PHP (Slim), JS, Angular Environnement Docker (AWS apprécié) Bonus : Github, Shell Qualités humaines : autonomie, curiosité, communication, sens du service Issy-les-moulineaux 2 jours de TT
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Développeur/Ingénieur en Informatique Quantique

Publiée le
Azure

1 an
Paris, France
Télétravail partiel
Description du poste : Nous recherchons un(e) Développeur/Ingénieur spécialisé(e) en informatique quantique pour concevoir, développer et tester des algorithmes et applications sur des simulateurs et ordinateurs quantiques. Vous participerez à des projets innovants exploitant le potentiel de la technologie quantique pour résoudre des problématiques complexes dans différents domaines. Missions principales : Concevoir et développer des algorithmes quantiques pour des applications métier. Tester et simuler des circuits quantiques sur des plateformes comme Qiskit, Cirq, ou Azure Quantum. Collaborer avec les équipes R&D pour intégrer les solutions quantiques aux systèmes existants. Suivre les avancées de la recherche en informatique quantique et proposer des innovations. Documenter les développements et produire des rapports techniques pour l’équipe et la direction. Profil recherché : Bac+5 en informatique, physique, mathématiques appliquées ou équivalent. Expérience ou forte connaissance en informatique quantique et programmation de circuits quantiques. Maîtrise des frameworks quantiques (Qiskit, Cirq, Forest/pyQuil, Azure Quantum…). Compétences en Python et en algorithmique. Curiosité scientifique, rigueur et esprit d’innovation. Atouts supplémentaires : Connaissance des principes de cryptographie quantique ou optimisation quantique. Expérience avec les systèmes hybrides classique/quantique. Environnement de travail : Projet R&D sur technologies quantiques. Équipe innovante et multidisciplinaire. Opportunités de formation et participation à la recherche académique ou industrielle.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
PIXIE - Azure DevOps – Intégration Continue et Automatisation - Paris - Long terme

Publiée le
.NET
Azure
Azure DevOps

3 ans
Paris, France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un(e) : Description et livrables de la prestation Au sein de la Direction Technologie, l’expert Azure DevOps rejoindra l’équipe DevOps Tools & Automation (DOTA) composée d’une quinzaine d’ingénieurs OPS et DEV. Il travaille en mode DevOps sur la plateforme d’intégration continue et apporte son support à toutes les guildes qui utilisent cette PIC. Il collabore avec les experts logiciels des guildes pour répondre aux enjeux de delivery vis-à-vis du métier. Il coordonne les parties prenantes et assure l’interface avec les solutions partagées ou fournies par le groupe. Activités : • Support aux guildes DEV et OPS sur la création et la maintenance de Build et Release • Administration de la plateforme Azure DevOps • Administration des outils Sonar, SCA, Checkmarx, Docker et Nexus • Garantir l’exploitabilité, la robustesse et la résilience des solutions Expertise souhaitée : • Minimum 3 ans d’expérience sur Azure DevOps • Connaissance des parties Build/Release, administration des utilisateurs/groupes et des services connections • Connaissance de l’API Azure DevOps • Expérience en développement .NET ou Java • Connaissance du fonctionnement des VMSS et de Terraform Optionnel : • Connaissance de SCA, Sonar, Nexus et Checkmarx Mobilité : • 2 jours sur site obligatoires par semaine • Jusqu’à 3 jours en télétravail possibles par semaine Localisation : Lille en priorité ou Nanterre Si votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai rapidement vers vous pour échanger.
2959 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous