L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 041 résultats.
Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)
Craftman data
Publiée le
Ansible
Azure
Check Point
3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Offre d'emploi
Administrateur Systèmes & Réseaux (H/F)
FED SAS
Publiée le
40k-45k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la santé basé à Paris, un ou une : Administrateur Systèmes & Réseaux (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein de la Direction des Systèmes d'Information (DSI), vous aurez la charge du MCO des infrastructures ainsi que de la conduite de divers projets. A ce titre, vos principales missions seront : - Maintenir et faire évoluer l'infrastructure systèmes et réseaux, dans un objectif de qualité, de productivité et de sécurité globale, s'assurer du fonctionnement optimal des serveurs, des liaisons et des équipements réseaux ; - Assurer le suivi et la remédiation des incidents systèmes, réseaux, applicatifs et sécurité, traiter les demandes complexes (niveau 2) ; - Attribuer les droits d'accès aux solutions en fonction des profils ; - Participer à l'exploitation des environnements applicatifs systèmes en production (Linux et Microsoft), des équipements réseaux & sécurité associés ; - Gérer les projets liés au Système d'Information, accompagner les métiers dans la rédaction de l'expression des besoins (reporting ou rapports), contribuer au paramétrage des solutions métiers (Sage, Jira, Uipath, etc) et gérer les changements ; - Configurer les solutions en conformité avec les normes et standards définis par les experts du domaine, effectuer des revues régulières des règles et paramétrages mis en place - Elaboration des documents d'exploitation et suivi de la documentation du système ; - Veiller au bon fonctionnement de la remontée des logs et des alertes ; - Mise en conformité du Système d'Information en fonction de la PSSI VIAMEDIS et des recommandations des audits de sécurité...
Mission freelance
Expert en Migration de Données H/F
SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration
3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Mission freelance
DATA ARCHITECT
HAYS France
Publiée le
Collibra
Data governance
KPI
3 ans
120-610 €
Lille, Hauts-de-France
Nous cherchons un data architect pour intégrer la plateforme PDP (Product Digital Platform), qui équipe les métiers autour de la centrale d'achat (Relation fournisseur, Gérer les prix, les gammes et les produits, etc.) : Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Offre d'emploi
Data Modeler (OpenEHR / Health Data)
Gentis Recruitment SAS
Publiée le
Data modelling
SQL
6 mois
40k-82k €
400-700 €
Luxembourg
Vous serez responsable de la conception, du développement et de la maintenance des modèles de données cliniques et de recherche via openEHR, FHIR et des modèles relationnels. Vous collaborerez avec les équipes cliniques, chercheurs et data stewards afin de formaliser les besoins métiers en modèles de données réutilisables, tout en garantissant leur alignement avec les standards internationaux de santé et les politiques de gouvernance data. Vous travaillerez en étroite collaboration avec les équipes data engineering pour assurer l’implémentation en production des modèles au sein des repositories cliniques et data warehouses, tout en contribuant à la gouvernance, à la documentation et à l’évolution des standards de données de santé de l’organisation.
Mission freelance
Tech Lead Data & Viz
Management Square
Publiée le
Data modelling
Microsoft Power BI
Snowflake
1 an
530-570 €
Île-de-France, France
Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post‑mortems), tout en mentorant l’équipe. Tech Lead Data & Viz pour l'équipe DAAS Expertise Snowflake/Azure Data Factory Aide au cadrage technique sur les initiatives et projets du périmètres. Expertise Power BI sur le périmètre Regions : best practices à rédiger, template, etc
Mission freelance
Responsable d'application Data
MLMCONSEIL
Publiée le
Big Data
6 mois
400-550 €
Nantes, Pays de la Loire
Pour le besoin de mon client basé à Nantes , je suis à la recherche d'un Responsable d'application Data Tâches Assurer le bon fonctionnement des applications : Garantir la disponibilité des applications Superviser et coordonner les mises en production Maitriser les flux entrants et sortants Participer aux chiffrage et cadrage des sujets Qualifier les anomalies et suivre leur correction Maintenir la documentation des applications Compétences Demandées Compétences ~5 ans d'expérience Maitrise des architectures Big Data Environnement technique : Cloud Azure, Databricks, Spark, Python, Scala, Power BI … Gestionnaire de configuration : git Connaissances en algorithmie A l’aise avec la manipulation de données
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch
1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Mission freelance
Chef de projet transformation des opérations en Asset Management
CONSULTING
Publiée le
Data management
7 mois
400-750 €
Bruxelles, Bruxelles-Capitale, Belgique
Objectif de la mission Dans le cadre d’un projet de transformation stratégique au sein d’un Asset Manager, la mission consiste à réaliser des activités de gestion de projet au sein de la division Operations. Le périmètre couvre les processus front-to-back de la gestion d’actifs ainsi que la gestion des données. Le rôle inclut à la fois des tâches de coordination et des analyses ponctuelles. Prestations demandées · Gestion de projet : coordination, suivi budgétaire, planning, migration, conduite du changement · Assistance aux analyses · Contribution à la définition du modèle cible
Mission freelance
Business Analyst Data – AI / Snowflake - Full remote
Net technologie
Publiée le
Agent IA
AI
Data modelling
3 mois
400-420 €
France
Dans le cadre d’un projet innovant de transformation data, nous recherchons un(e) Business Analyst pour accompagner le déploiement d’une solution basée sur un agent IA (LLM). 🎯 Objectif : permettre aux utilisateurs d’interroger les données en langage naturel via des requêtes SQL générées automatiquement. 🚀 Missions Alignement entre besoins métiers & data product Gestion des requirements & user stories (Agile Scrum) Contribution au backlog et aux releases Validation des modèles de données & qualité des données Participation aux tests fonctionnels & QA Coordination avec PO, équipes data & métiers 👉 Mission au cœur des enjeux Data & IA Générative appliquée au business .
Offre d'emploi
Data Quality Expert
Halian
Publiée le
AI
Big Data
Data analysis
5 ans
Paris, France
Contexte Dans le cadre du renforcement de ses capacités data, une grande organisation internationale mène un programme de transformation visant à améliorer la fiabilité des données, accroître l’automatisation et renforcer la gouvernance des données. La mission s’inscrit dans une démarche globale d’industrialisation des pratiques de qualité des données, de réduction des contrôles manuels et d’adoption de technologies avancées pour soutenir la prise de décision métier. L’expert interviendra comme référent senior en qualité des données , en collaboration étroite avec les équipes techniques et métiers. Responsabilités Évaluer les pratiques existantes en matière de qualité des données et réaliser un diagnostic de maturité Définir et mettre en œuvre des règles de qualité, des contrôles et des processus de validation tout au long des pipelines de données Concevoir des processus automatisés de surveillance, d’alerting et de remédiation des incidents liés à la qualité des données Contribuer à la définition d’un cadre de qualité des données scalable ainsi qu’à la feuille de route de déploiement Exploiter des techniques avancées, y compris des approches basées sur l’IA, pour optimiser les contrôles et la détection d’anomalies Assurer la documentation, le transfert de connaissances et l’alignement avec les équipes et parties prenantes internes Profil recherché Expérience significative en qualité des données, gouvernance des données et pratiques de validation Solide maîtrise des plateformes data, environnements de traitement et d’analytics Expérience dans la conception de contrôles automatisés, de tableaux de bord de monitoring et de KPI Capacité à traduire les besoins métiers en règles de qualité mesurables Bonne connaissance des environnements data modernes et/ou cloud Excellentes compétences en communication, avec une capacité à collaborer efficacement avec des interlocuteurs techniques et métiers
Offre d'emploi
Data Hub - Data Engineer
Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
Mission freelance
Chef de projet Data / Analytics Engineer Senior
MEETSHAKE
Publiée le
Data Engineering
DBT
Modélisation
2 mois
La Défense, Île-de-France
Contexte Dans le cadre d’une refonte de la stack Data , un acteur de grande taille a engagé la construction from scratch d’un nouveau Datawarehouse basé sur une architecture Médaillon , suite au rapprochement de plusieurs périmètres métiers. Les travaux ont démarré il y a moins d’un an et le projet arrive dans sa phase finale. Objectifs de la mission Nous recherchons un Analytics Engineer expérimenté pour intervenir en renfort et accélérer le delivery sur la fin du projet. Les objectifs principaux sont : Accélérer la livraison des modèles de données Fiabiliser et sécuriser les pipelines existants Contribuer fortement à la modélisation fonctionnelle des données Exploiter les données issues du Data Lake vers le Datawarehouse Environnement technique Data Lake / Data Warehouse : Databricks Transformations : DBT Data Catalog : outil de catalogage data Versioning : Git Missions principales Concevoir et maintenir des modèles de données analytiques avec DBT Travailler à partir du Data Lake existant Garantir la qualité, la cohérence et la fiabilité des données Collaborer étroitement avec l’équipe Analytics Engineering et les parties prenantes métiers Documenter et industrialiser les modèles livrés
Mission freelance
Un(e) ML Engineer / MLOps Engineer
Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI
6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6041 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois