L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 716 résultats.
Offre d'emploi
Directeur des Systèmes d'Information
VISIAN
Publiée le
Budget Management
Data governance
Project Portfolio Management (PPM)
1 an
Paris, France
Missions Assurer le rôle de DSI à part entière sur la durée de la mission Clarifier l’organisation, les rôles et responsabilités (RUN / BUILD / support) Mettre en place ou renforcer les instances de gouvernance IT (CODIR DSI, comités projets) Fiabiliser le pilotage (rituels, indicateurs, priorisation) Garantir le maintien en condition opérationnelle des systèmes critiques Sécuriser la production IT (disponibilité, performance, incidents majeurs) Traitement des irritants prioritaires métiers Reprendre le pilotage des projets structurants / sensibles Reprioriser le portefeuille projets en lien avec la Direction Générale Identifier rapidement les zones de risque, arbitrages et décisions à prendre Sécuriser les trajectoires (planning, coûts, qualité) Remettre à niveau les pratiques essentielles (documentation, MEP, qualité, sécurité) Apporter des méthodes pragmatiques adaptées à la maturité réelle de l’organisation Professionnaliser sans sur-organiser Être un interlocuteur crédible et opérationnel pour le COMEX Rendre compte de façon claire, factuelle et synthétique Formuler des recommandations actionnables, sans posture politique Produire un état des lieux clair (forces, faiblesses, risques) Capitaliser sur les actions menées et décisions prises Préparer le passage de relais au futur DSI (dossier de reprise)
Offre d'emploi
Ingénieur Système et Réseau N3 - F/H
Experis France
Publiée le
45k-55k €
Mer, Centre-Val de Loire
Contexte Nous recrutons un Ingénieur Système N3 - F/H pour intervenir en mission chez l'un de nos clients du secteur bancaire, sur un périmètre d'infrastructure à forts enjeux. Vous intégrez une DSI structurée et exigeante, avec une mission à dominante build vous permettant de contribuer activement à l'évolution et à la modernisation des infrastructures systèmes, tout en assurant un rôle de référent technique sur les incidents de niveau N3. Vos missions Administration et exploitation systèmes Administrer et maintenir en conditions opérationnelles les infrastructures systèmes Assurer le suivi et la résolution des incidents de niveau 3 Participer aux activités run et garantir la continuité de service Projets et évolutions Participer activement aux projets d'évolution et de modernisation des infrastructures Contribuer à la conception et à la mise en œuvre des nouvelles solutions systèmes Réaliser les changements et mises en production dans le respect des procédures Documentation et processus Rédiger et maintenir à jour les procédures et processus d'exploitation Participer aux réunions de suivi projet et aux instances techniques Contribuer à l'amélioration continue des pratiques et standards du service
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Offre d'emploi
Opérateur de Saisie de Données Data H/F
█ █ █ █ █ █ █
Publiée le
Akeneo
Microsoft Excel
26 400-28 800 €
Rocheservière, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Analyst F/H
AIS
Publiée le
1 mois
39k-46k €
230-460 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'une de nos clients grand compte, le projet concerné est une plateforme digitale transversale. Le projet permet une capacité de type "Talk to your data" : une interface en langage naturel permettant aux collaborateurs de poser des questions et d'obtenir des réponses sans expertise technique. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l'agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. Le détail de vos missions sera le suivant : Compréhension Fonctionnelle & Cohérence Produit - Assurer l'alignement entre les besoins métier et les capacités de la solution - Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences - Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités Contribution aux User Stories & au Backlog - Participer à la rédaction des user stories - Définir les fonctionnalités du produit et contribuer à la planification des releases - Prioriser les fonctionnalités et ajuster le périmètre à chaque itération - Garantir la préparation des user stories pour le développement - Accepter ou rejeter les résultats livrés selon les critères définis Assurance Qualité - Contribuer à la création et à l'exécution des cas de test - Valider les modèles de données et leur adéquation aux besoins analytiques - Participer aux contrôles de qualité des données et aux tests fonctionnels Environnement technique : - SQL avancé - Snowflake AI Cortex (niveau confirmé) - Modélisation de données - Data quality, testing et validation - Concepts IA / GenAI - Méthodologie : Agile - Langues : Anglais (Courant - Niveau C1)
Mission freelance
Expert en Migration de Données H/F
SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration
3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)
Craftman data
Publiée le
Ansible
Azure
Check Point
3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Offre d'emploi
Data Modeler (OpenEHR / Health Data)
Gentis Recruitment SAS
Publiée le
Data modelling
SQL
6 mois
40k-82k €
400-700 €
Luxembourg
Vous serez responsable de la conception, du développement et de la maintenance des modèles de données cliniques et de recherche via openEHR, FHIR et des modèles relationnels. Vous collaborerez avec les équipes cliniques, chercheurs et data stewards afin de formaliser les besoins métiers en modèles de données réutilisables, tout en garantissant leur alignement avec les standards internationaux de santé et les politiques de gouvernance data. Vous travaillerez en étroite collaboration avec les équipes data engineering pour assurer l’implémentation en production des modèles au sein des repositories cliniques et data warehouses, tout en contribuant à la gouvernance, à la documentation et à l’évolution des standards de données de santé de l’organisation.
Mission freelance
DATA ARCHITECT
HAYS France
Publiée le
Collibra
Data governance
KPI
3 ans
120-610 €
Lille, Hauts-de-France
Nous cherchons un data architect pour intégrer la plateforme PDP (Product Digital Platform), qui équipe les métiers autour de la centrale d'achat (Relation fournisseur, Gérer les prix, les gammes et les produits, etc.) : Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Mission freelance
Responsable d'application Data
MLMCONSEIL
Publiée le
Big Data
6 mois
400-550 €
Nantes, Pays de la Loire
Pour le besoin de mon client basé à Nantes , je suis à la recherche d'un Responsable d'application Data Tâches Assurer le bon fonctionnement des applications : Garantir la disponibilité des applications Superviser et coordonner les mises en production Maitriser les flux entrants et sortants Participer aux chiffrage et cadrage des sujets Qualifier les anomalies et suivre leur correction Maintenir la documentation des applications Compétences Demandées Compétences ~5 ans d'expérience Maitrise des architectures Big Data Environnement technique : Cloud Azure, Databricks, Spark, Python, Scala, Power BI … Gestionnaire de configuration : git Connaissances en algorithmie A l’aise avec la manipulation de données
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch
1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Mission freelance
Chef de projet transformation des opérations en Asset Management
CONSULTING
Publiée le
Data management
7 mois
400-750 €
Bruxelles, Bruxelles-Capitale, Belgique
Objectif de la mission Dans le cadre d’un projet de transformation stratégique au sein d’un Asset Manager, la mission consiste à réaliser des activités de gestion de projet au sein de la division Operations. Le périmètre couvre les processus front-to-back de la gestion d’actifs ainsi que la gestion des données. Le rôle inclut à la fois des tâches de coordination et des analyses ponctuelles. Prestations demandées · Gestion de projet : coordination, suivi budgétaire, planning, migration, conduite du changement · Assistance aux analyses · Contribution à la définition du modèle cible
Offre d'emploi
Data Quality Expert
Halian
Publiée le
AI
Big Data
Data analysis
5 ans
Paris, France
Contexte Dans le cadre du renforcement de ses capacités data, une grande organisation internationale mène un programme de transformation visant à améliorer la fiabilité des données, accroître l’automatisation et renforcer la gouvernance des données. La mission s’inscrit dans une démarche globale d’industrialisation des pratiques de qualité des données, de réduction des contrôles manuels et d’adoption de technologies avancées pour soutenir la prise de décision métier. L’expert interviendra comme référent senior en qualité des données , en collaboration étroite avec les équipes techniques et métiers. Responsabilités Évaluer les pratiques existantes en matière de qualité des données et réaliser un diagnostic de maturité Définir et mettre en œuvre des règles de qualité, des contrôles et des processus de validation tout au long des pipelines de données Concevoir des processus automatisés de surveillance, d’alerting et de remédiation des incidents liés à la qualité des données Contribuer à la définition d’un cadre de qualité des données scalable ainsi qu’à la feuille de route de déploiement Exploiter des techniques avancées, y compris des approches basées sur l’IA, pour optimiser les contrôles et la détection d’anomalies Assurer la documentation, le transfert de connaissances et l’alignement avec les équipes et parties prenantes internes Profil recherché Expérience significative en qualité des données, gouvernance des données et pratiques de validation Solide maîtrise des plateformes data, environnements de traitement et d’analytics Expérience dans la conception de contrôles automatisés, de tableaux de bord de monitoring et de KPI Capacité à traduire les besoins métiers en règles de qualité mesurables Bonne connaissance des environnements data modernes et/ou cloud Excellentes compétences en communication, avec une capacité à collaborer efficacement avec des interlocuteurs techniques et métiers
Offre d'emploi
Data Scientist IA
R&S TELECOM
Publiée le
CI/CD
Kubernetes
1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)
ASTRELYA
Publiée le
Collibra
Data governance
IA
92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5716 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois