Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 806 résultats.
Freelance

Mission freelance
Coach Agile Transformation

Publiée le
Safe

36 mois
Paris, France
Télétravail partiel
Compétences fonctionnelles : • Cadre SAFe (niveau ART / train) • Organisation et fonctionnement de dispositifs transverses (Shared Services) • Animation de communautés de pratique • Accompagnement au changement et transformation de modèles opérationnels • Structuration d’offres de services internes. • Pilotage par la valeur et les usages. Compétences techniques : • Utilisation bureautique et collaborative (Word, Excel, Powerpoint, Loop, Teams) • Usage des outils de tableau blanc (Klaxoon) • Maitrise des outils JIRA (server et cloud) et confluence (server et cloud) • Techniques de facilitations d’ateliers Autres souhaitables ou notions : • Approche et workflow des projets DATA • Product Management. • Lean Portfolio Management. • Management 3.0. • IA générative (Copilot ou équivalents). • Animation de collectifs de direction. • Accessibilité et éco-conception. Objectifs et livrables 1. Plan progrès comprenant les principales séquences d’actions 2. Synthèse de l’évaluation de maturité sur le périmètre de responsabilité 3. Support de formation ou sensibilisation 4. Documentation des processus spécifiques et des exceptions mis en œuvre 5. ROTI et commentaires des sessions de sensibilisations et de formations 6. Relevé des actions conduites Pilotage attendu sur la prestation Le pilotage de la mission sera effectué à minima au travers de la comitologie et des outils suivants : - Rendez-vous avec les représentants de la direction et le LACE (mensuel, bi mensuel ou trimestrielle en fonction des chantiers et travaux engagés) - Daily du LACE - Réunion d’alignement du LACE au moins une fois par mois
Freelance

Mission freelance
238700/Architecte Cloud Azure Senior / Zone de Sophia-Antipolis

Publiée le
Azure

3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Télétravail partiel
Architecte Cloud Azure Senior / Zone de Sophia-Antipolis Objectif : poser le cap et l’architecture cible, puis avoir de bonnes compétences en gestion de projet pour piloter l’exécution dans le respect du triptyque qualité/délais/budget. Il s’agit d’un profil Architecte Cloud Azure expérimenté, pour définir, mettre en place et maintenir la Cloud Architecture cible basée sur Azure : Azure (IaaS, PaaS, Networking, IAM, Arc, Azure Local): Azure Compute (VM, AVD,...) Azure Storage. Azure Networking (VNet, FW, WAF, DNS, Private Link, ExpressRoute) Azure Kubernetes Services (AKS) Infrastructure as Code (Terraform/Ansible) CI/CD (GitLab) FinOps Compétences demandées Compétences Niveau de compétence Microsoft Azure Expert Méthodologie DE gestion DE projet Expert Architecture cloud-native Expert
Freelance

Mission freelance
Ingénieur Automatique - Intégration capteurs & bancs de tests

Publiée le
Big Data
C/C++
Linux

6 mois
200-310 €
Paris, France
Télétravail partiel
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
Freelance

Mission freelance
Ingénieur Poste de Travail

Publiée le
Dynatrace

6 mois
400-550 €
Limonest, Auvergne-Rhône-Alpes
ingénieur poste de travail avec une expérience significative autour de l'observabilité d'un parc poste de travail (expérience >10000 PDT). Assurer l'exploitation et l'optimisation des performances des postes de travail au sein d'un parc matériels > 80 000 PDT, en garantissant une expérience utilisateur fluide et efficace Améliorer la vision bout en bout pour détecter au plus tôt les signaux faibles (changement de comportements, dégradations de service...) Participer à l’analyse des incidents/ problèmes de production et aux post mortem afin de proposer des évolutions permettant de capter/détecter en mode proactif les points de défaillances Proposer les métriques (métrologie) et les suivre pour afficher une météo du PDT Construction et Analyse de dashboard, coordination du plan d'actions pour y remédier Connaissance d'outils de type: Nexthink, Dynatrace Rum, Riverbed Aternity, Zscaler Expert du poste de travail et avec un bon niveau de compétences techniques des solutions de communication et de collaboration (Teams, Copilot, Onedrive..) --
Freelance

Mission freelance
Consultant Dynatrace Observabilité

Publiée le
Dynatrace

10 jours
Île de Clipperton, France
Télétravail 100%
Bonjour, Dans le cadre d’un audit technique, je recherche un consultant Dynatrace expérimenté pour intervenir sur une mission courte de quelques jours, réalisée intégralement en télétravail. La mission portera principalement sur l’analyse de l’existant, l’évaluation de la configuration Dynatrace en place, l’identification des axes d’optimisation (performance, observabilité, alerting) et la formulation de recommandations structurées et actionnables. Le consultant devra disposer d’une solide expérience opérationnelle sur Dynatrace (environnements complexes, APM, infra, éventuellement cloud) et être en capacité de produire une restitution claire et synthétique.
Freelance
CDI

Offre d'emploi
Tech Lead VOC

Publiée le
Vulnerability management

1 an
40k-45k €
400-550 €
Guyancourt, Île-de-France
Au sein du VOC du client en charge de la Détection, Prévention et Réponse aux incidents de sécurité sur le périmètre des réseaux opérateurs et Systèmes d’information du client vous serez rattaché à la responsable VOC. L'équipe VOC est en charge de la centralisation des sources de scan, leur configuration, l'analyse des vulnérabilités remontées par ces outils et le suivi des remédiations auprès des équipes métiers. Objectifs et livrables Votre mission, très riche sera : Participation à l'activité de veille sur les dernières vulnérabilités pouvant impacter les technologies de notre parc Analyse des résultats de scan et suivi de leur remédiation auprès des métiers Intégration des vulnérabilités cloud et de l'outil de scan cloud dans les activités du VOC (processus, documentation, formation de l'équipe) Accompagnement des analystes VOC dans la reprise de la sécurité des AD (pingcastle, bloodhound,..) Accompagnement dans la montée en compétence des membres de l'équipe
Freelance

Mission freelance
[SCH] Architecte Cloud Azure Senior - 1156

Publiée le

10 mois
450-500 €
Antibes, Provence-Alpes-Côte d'Azur
Télétravail partiel
Dans un contexte de transformation et de modernisation des infrastructures IT, le client souhaite renforcer ses équipes avec un Architecte Cloud Azure Senior. L’objectif principal est de définir l’architecture cible Cloud Azure, d’en poser les fondations techniques et de piloter son déploiement opérationnel, en garantissant le respect du triptyque qualité / délais / budget. Le poste nécessite à la fois une forte expertise technique Azure et de solides compétences en gestion de projet, afin d’assurer la coordination des équipes et le suivi des livrables. Missions principales : -Définir et concevoir l’architecture Cloud cible basée sur Microsoft Azure -Mettre en place et maintenir les environnements Azure (IaaS / PaaS) -Piloter l’exécution des projets Cloud : planning, budget, qualité et risques -Accompagner les équipes techniques dans la mise en œuvre des bonnes pratiques Cloud-native -Garantir la sécurité, la performance, la scalabilité et la résilience des architectures -Mettre en œuvre les standards Infrastructure as Code et les pipelines CI/CD -Intégrer une démarche FinOps pour le pilotage et l’optimisation des coûts Cloud -Assurer la documentation, le transfert de compétences et la gouvernance Cloud Profil recherché : -Architecte Cloud expérimenté avec plus de 8 ans d’expérience en architecture systèmes et Cloud -Expertise confirmée sur Microsoft Azure dans des environnements complexes -Solide culture Cloud-native et architectures distribuées -Capacité à intervenir à la fois en conception stratégique et en pilotage opérationnel -À l’aise dans des contextes multi-interlocuteurs et à forts enjeux business -Bon communicant, structuré, orienté résultats et qualité de service
Freelance

Mission freelance
Data Engineer AWS / Snowflake (Urgent)

Publiée le
Amazon S3
AWS Cloud
Gitlab

6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Freelance
CDI

Offre d'emploi
Data Scientist

Publiée le
Google Cloud Platform (GCP)
Machine Learning

1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Freelance

Mission freelance
Ingénieur Exploitation production

Publiée le
Visual TOM

6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
L’Ingénieur Exploitation Production assure l’intégration, la mise en production et l’exploitation des ressources physiques (disques, robots, automates…) et logiques (logiciels, espace disque, puissance…) dans le respect des normes et standards édictés. Gestion des incidents affectés au service de niveau 2 à 3 aussi bien sur des sujets techniques que fonctionnels - Être moteur lors aux cellules de crises lors d’un incident en Production et s’assurer la remontée et le suivi des éléments techniques et fonctionnels auprès de nos fournisseurs - Participer aux comités opérationnels avec nos différents fournisseurs autour de nos problématiques et incidents. - Contribuer à l’élaboration de nouvelles chaines d’ordonnancement (via VTOM) et le suivi au quotidien des chaines existantes - Optimiser la supervision de l’application via Zabbix, ELK, AppDynamics, Grafana pour être le plus proactif possible dans la détection d’un incident
Freelance

Mission freelance
Chef de projet Data

Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

Publiée le
Azure
Python

1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Chef(fe) de Projet PCA/PRA – Direction des Systèmes d’Information La Défense (92)

Publiée le
Plan de continuité d'activité (PCA)
Plan de reprise d'activité (PRA)

1 an
650 €
La Défense, Île-de-France
Télétravail partiel
Au sein de la Direction des Systèmes d’Information de notre client la sécurisation des activités critiques et la résilience des infrastructures IT sont au cœur de la stratégie. Dans ce cadre, le département ITS poursuit le déploiement d’un programme de Continuité et de Reprise d’Activité (PCA/PRA) visant à garantir la disponibilité des services informatiques en cas de crise majeure ou de cyberattaque, à limiter les impacts opérationnels et financiers, et à répondre aux exigences de conformité des clients et du management. Afin d’accompagner ce programme, nous recherchons un(e) Chef(fe) de Projet PCA/PRA expérimenté(e), rattaché(e) à la Direction de la Sécurité des Systèmes d’Information. Missions principales Rattaché(e) au CISO et en étroite collaboration avec les équipes architecture, sécurité et opérations, vous aurez pour principales responsabilités de : Piloter la mise en œuvre et le suivi du programme PCA/PRA du périmètre ITS. Coordonner les travaux de Business Impact Analysis (BIA) et de mise à jour des plans de secours IT . Identifier les écarts, risques et plans d’amélioration relatifs à la continuité et à la reprise d’activité. Définir et piloter le plan de tests (restaurations, simulations, exercices de crise). Préparer et animer les comités de pilotage PCA/PRA . Assurer la documentation, la communication et la sensibilisation autour des dispositifs de continuité et de reprise d’activité. Collaborer étroitement avec le programme PCA du Groupe et participer à la mise en œuvre d’un outil de gestion de crise . Contribuer à d’autres projets de cybersécurité et de gestion des risques IT portés par la DSI. Profil du candidat Formation : Bac +5 (école d’ingénieur ou équivalent universitaire). Expérience : minimum 8 ans dans la gestion de projets IT, avec une expérience significative en continuité d’activité et sécurité de l’information . Connaissances attendues : Bonnes pratiques et normes PCA/PRA (ISO 22301, BCI, DRI). Méthodes de gestion de projet (classique ou agile). Culture générale IT et sécurité : infrastructures, réseaux, cloud, sauvegardes, ITIL. Certifications type CISSP ou CISM appréciées. Compétences comportementales : Excellentes capacités de coordination, communication et leadership transversal . Rigueur , autonomie , et sens des priorités . Aisance relationnelle avec des interlocuteurs variés (équipes techniques, métiers, direction). Langues : anglais courant requis. Description de l‘entreprise Rattachement hiérarchique : CISO – Direction des Systèmes d’Information. Localisation : poste basé à La Défense (92) . Télé travail partiel (2 jours par semaine)
Freelance
CDI

Offre d'emploi
Expert Data Référentiels

Publiée le
API
Azure DevOps
Azure Synapse

1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Freelance

Mission freelance
Ingénieur Test & Validation / Intégration

Publiée le
C#
C/C++
Intégration

6 mois
400-550 €
Île-de-France, France
Télétravail partiel
Contexte Nous recherchons un Ingénieur Test & Validation / Intégration pour notre client afin d'intervenir sur le programme français FAED (Fichier Automatisé des Empreintes Digitales). Le consultant participera à l’ensemble des activités de tests et de validation, en garantissant la qualité, la sécurité et la fiabilité du système. 🎯 Mission : Tests de non-régression , fonctionnels , patches (fonctionnels & sécurité) Tests de vulnérabilités Validation des procédures et installations Accompagnement client pour l’application des patches Réalisation des tests en pré-production
CDD

Offre d'emploi
INTERNAL ACCOUNT MANAGER H/F

Publiée le

1 mois
30k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Internal Account Manager H/F pour notre site de Lyon-Dardilly. Contrat : CDD d'un mois, puis, prolongé (longue durée). Rattaché(e) à la BU SOFTWARE (sur le marché UGAP MULTI EDITEURS), vous serez responsable de la relation entre les éditeurs partenaires de SCC et l'UGAP. L'UGAP propose un catalogue large et évolutif de + 3000 éditeurs afin de répondre rapidement aux besoins des acteurs publics, qu'ils soient ponctuels ou associés à des projets complexes. -Vous assurez le traitement des dossiers commerciaux et garantissez le bon déroulement des opérations en respectant les procédures internes, -Vous assurez un rôle d'interface entre les services internes SCC (Avant-Vente, Relation Client...), notre client l'UGAP, et nos fournisseurs, -Vous établissez les offres commerciales selon les règles du marché, -Vous effectuez des relances via différents canaux, -Vous apportez une solution en cas de litiges, -Vous effectuez un reporting régulier et -Vous participez activement aux projets et appels d'offres si nécessaire.
3806 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous