Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 670 résultats.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cybersécurité OT - Hardening

RIDCHA DATA
Publiée le
Android
Center for Internet Security (CIS)
Cybersécurité

1 an
Boulogne-Billancourt, Île-de-France
🎯 Contexte Dans le cadre d’un programme international de cybersécurité industrielle, une grande organisation souhaite renforcer la sécurité de ses systèmes d’information industriels (OT/IT). La mission s’inscrit dans une démarche globale de renforcement, standardisation et amélioration continue des politiques de sécurité appliquées aux environnements industriels. 🧩 Périmètre technique Postes industriels IT (environnements OT) Postes industriels OT Équipements mobiles industriels (tablettes, devices) Serveurs MES (Manufacturing Execution System) 🚀 Missions principales Réaliser un audit des politiques de sécurité existantes Identifier les écarts entre les politiques définies et les configurations réelles Conduire des audits de configuration des équipements Analyser les dispositifs de contrôle existants Proposer des solutions d’ automatisation et d’amélioration Définir et formaliser des politiques de sécurité adaptées Participer à une organisation en mode Agile Collaborer avec des équipes internationales et pluridisciplinaires 📦 Livrables attendus Rapport d’état des lieux des politiques de sécurité Analyse des dispositifs de contrôle existants Documentation des politiques de sécurité Analyse de risques Plan de remédiation (mesures correctives) Comptes rendus des réunions
Freelance
CDI

Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)

STORM GROUP
Publiée le
AI
Machine Learning
Python

3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Freelance

Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)

Freelance.com
Publiée le
Big Data

5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Alternance
CDI

Offre d'emploi
Data analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Administrateur Linux F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Linux
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Scientist (H/F)

Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)

8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Freelance

Mission freelance
Data Scientist - Bases de Données Graph & SQL

Sapiens Group
Publiée le
Data science
MySQL
Neo4j

1 an
Meudon, Île-de-France
Contexte Nous recherchons un profil jeune et motivé pour rejoindre notre équipe en tant que Data Scientist orienté gestion et modélisation de bases de données. Missions Concevoir, modéliser et administrer des bases de données, notamment orientées graphe Manipuler et exploiter des données via Neo4j et MySQL Participer à la structuration et à l’optimisation des flux de données Contribuer à des projets innovants nécessitant une forte compréhension des données Pourquoi nous rejoindre ? Environnement dynamique et innovant Projets concrets avec un impact réel Possibilité d’évolution et montée en compétences Si vous êtes passionné par la donnée et souhaitez vous investir dans un projet ambitieux, ce poste est fait pour vous.
Freelance
CDI
CDD

Offre d'emploi
Architect Puits de logs / Log Management

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Architecte Data Visibility / Log Management afin d’accompagner la structuration, le déploiement et l’exploitation de la chaîne de collecte des logs de sécurité. 👉 La mission couvre l’ensemble du cycle de vie de la visibilité des données : du cadrage des besoins jusqu’à l’exploitation opérationnelle. 🎯 Objectifs de la mission Renforcer la couverture de détection du SOC Structurer les besoins en log management Déployer une chaîne de collecte robuste et sécurisée Assurer la pérennité et l’évolutivité de la visibilité data 🧩 Vos missions 🔍 Lot 1 : Cadrage & Architecture Exploiter les audits existants et identifier les écarts Définir l’architecture cible de collecte des logs Traduire les besoins en choix techniques et principes d’architecture Rédiger le cahier des charges Participer aux consultations (RFP) Définir une trajectoire d’évolution adaptée ⚙️ Lot 2 : Implémentation Élaborer le plan de déploiement (roadmap, dépendances, tests) Piloter la mise en place de la chaîne de collecte (agents, pipelines, SIEM) Garantir la qualité des logs (format, complétude, horodatage) Conduire les phases de tests et de validation Produire la documentation technique complète Assurer le transfert de compétences aux équipes internes 📦 Livrables attendus Cahier des charges & dossier d’architecture cible Dossier RFP complet Feuille de route de déploiement Plans de tests & comptes rendus de recette Documentation d’exploitation et troubleshooting Support de transfert de compétences 🛠️ Environnement technique SOC / SIEM Log management & data visibility Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Freelance

Mission freelance
Consultant(e) Senior Data Migration SAP (Alteryx)

Signe +
Publiée le
Alteryx
Data management
Migration

6 mois
500-570 €
Toulouse, Occitanie
Bonjour, Nous recherchons un(e) Consultant(e) SAP Data Migration (Senior) pour un client basé à Toulouse : Contexte : Intervention dans le cadre de programmes de transformation SAP S/4HANA avec reprise de données issues d’environnements ECC. Les enjeux portent sur la migration de données, leur qualité, leur transformation ainsi que l’industrialisation des traitements. Profil : Expertise en data migration SAP (S/4HANA / ECC) 5 à 10 ans d’expérience minimum sur des projets de migration de données Maîtrise des problématiques de reprise de données (Master Data et données transactionnelles), qualité et transformation des données Environnement : SAP S/4HANA, ECC, outils de migration (Migration Cockpit, LTMOM ou équivalent), Alteryx apprécié ou outils ETL équivalents Autonomie, capacité à intervenir en hands-on, à structurer les travaux et à encadrer ponctuellement des profils juniors, bon relationnel, anglais professionnel requis Démarrage : Mai / Juin 2026 (flexible) Durée : 6 mois minimum (prolongation probable) Couverture : Temps plein Hybride : Toulouse + télétravail (1 à 2 jours sur site / semaine, déplacements ponctuels à Paris) TJM : Selon profils (max 570€) Vous êtes intéressé(e), merci de m’adresser votre CV à Cordialement Célian Mahieu Signe + 07 50 75 68 53
Freelance

Mission freelance
Consultant senior data governance

Mon Consultant Indépendant
Publiée le
Data quality

3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Alternance

Offre d'alternance
Apprentice BAC 5 Data Scientist & IA H/F

█ █ █ █ █ █ █
Publiée le
Office 365
Python
SharePoint

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Administrateur Infrastructures : Systèmes et Réseaux - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

35k-45k €
Toulon, Provence-Alpes-Côte d'Azur
L'Administrateur Infrastructures installe, met en production et maintient les éléments d'une infrastructure, ou un système de gestion de données, afin d'assurer la disponibilité du système, ainsi que l'intégrité et la confidentialité des données. Il participe, avec les architectes infra et cyber, à la définition et à la mise en oeuvre des évolutions du système d'information grâce à sa proximité du terrain. Il assure également le suivi documentaire lié à la prestation (procédures, notes techniques, modes opératoires, schémas, etc.). ACTIVITES PRINCIPALES Maintenance • Maintenir les conditions opérationnelles de production et de service ; • Mesurer et optimiser les performances du système ; • Développer et mettre en œuvre des automatisations de procédures afin d'améliorer l'industrialisation de la production ; • Surveillance des journaux d'évènements, analyse des logs, supervision du SI ; • Assurer les mises à jour, mises en service, et montées de version en accord avec les règles définies par la Direction du Système d'Information concerné. Gestion des incidents et des demandes • Gérer les droits d'accès aux systèmes, bases de données et aux applications en fonction des règles définies au sein de la Direction du Système d'Information concerné ; • Analyser et traiter, dans le cadre de la chaîne de support, les incidents et les demandes escaladées, dans le respect des engagements contractuels (N1 à N3). Gestion des changements • Signaler les obsolescences et les risques d'altération de la performance ou de la sécurité du système et des postes de travail ; • Proposer des solutions d'évolution ou de remplacement ; • Installer, tester et mettre en production les nouvelles solutions validées par la Direction du Système d'Information concerné. Gestion des RFC conformément aux processus ITIL, suivi des changements de bout en bout. Documentation support et reporting • Assurer la traçabilité et l'exploitation des évènements survenus au sein du système ; • Etablir et mettre à jour tous les documents techniques nécessaires au maintien de l'infrastructure en condition opérationnelle (documents d'exploitation, document d'architecture technique, cartographie, CMDB, procédures, etc..) • Assurer l'assistance auprès des utilisateurs et des métiers ainsi que le transfert de transfert de compétences aux équipes connexe ; • Assurer l'assistance technique et le transfert de compétences aux équipes d'exploitation ; • Assurer le reporting de ses activités dans l'outil mis à sa disposition et auprès de son responsable direct. • Des missions complémentaires peuvent être confiées à l'Administrateur Infrastructures. Référence de l'offre : 6h5w540m6d
CDI

Offre d'emploi
Data Engineer Databricks & Data Analyst PowerBI H/F

JEMS
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Data Engineer & Data Analyst spécialisé(e) sur Databricks et PowerBI capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression • Être l‘intermédiaire entre le Métier et la DSI • Accroître la connaissance de la clientèle d'une entreprise, conduire des études sur les bases de données, suivre les outils datamining pour analyser l'impact des actions marketing • Mener et conduire des études (coordination/pilotage) Référence de l'offre : 3mtydwkre4
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
5670 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous