L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 063 résultats.
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Offre d'emploi
Expert Mobilité (Unified Endpoint Management) Workspace One H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
50k-60k €
Guyancourt, Île-de-France
Nous recherchons un expert / architecte mobilité spécialisé dans la gestion du MDM Omnissa Workspace One. Vous interviendrez dans le pilotage et la sécurisation de l'environnement mobile du client. Gestion du Mobile Device Management (MDM) - Workspace ONE • Mise en place, configuration et administration de la solution Workspace ONE. • Enrôlement (enrollment) des terminaux mobiles (iOS, Android, Windows, macOS) dans la solution. • Définition et application des politiques de sécurité (chiffrement, mot de passe, verrouillage, etc.). • Gestion du cycle de vie des devices (approvisionnement, supervision, retrait). Déploiement d'applications mobiles • Intégration et gestion des releases applicatives mobiles via Apple Developer et Google Developer dans Workspace ONE. • Intégration de stores d'entreprise (Enterprise App Store). • Gestion des applications publiques et privées, y compris les applications internes spécifiques à l'entreprise. Intégration d'entités à l'infrastructure existante • Accompagnement de nouvelles entités (filiales, départements, etc.) dans l'intégration à l'infrastructure MDM globale. • Adaptation des configurations et politiques aux spécificités de chaque entité. • Intégration avec Active Directory, Azure AD, certificats, SSO, proxies, etc. Sécurité • Implémentation de politiques de sécurité mobile (chiffrement, gestion des accès, effacement à distance). • Surveillance de la conformité (compliance) et réponse aux alertes de sécurité. • Intégration avec les solutions de sécurité globale. • Intégration de Workspace One avec l'infrastructure de PKI et gestion du cycle de vie des certificats pour l'authentification sécurisée des terminaux Résolution d'incidents • Support de niveau 4 sur les problématiques liées aux devices, à Workspace ONE, à la connectivité, aux apps. • Analyse des logs, diagnostics, escalades si nécessaire vers Omnissa ou d'autres éditeurs. • Documentation des incidents et capitalisation. Projets d'évolution de l'infrastructure • Participation à la conception et à la mise en œuvre de projets d'évolution (nouveaux OS, nouvelles versions de Workspace ONE, migration de plateformes). • Études d'impact, POC, documentation, déploiement en production. • Mise en conformité avec les standards ITIL, ISO, RGPD, etc. Compétences transverses • Bonne maîtrise des systèmes d'exploitation mobiles. • Connaissances en réseau (Per-App VPN, proxy, DNS, etc.). • Capacité de gestion de projet (planning, coordination, reporting). • Veille technologique sur la mobilité et les tendances sécurité (Zero Trust, BYOD, etc.). Référence de l'offre : wj2qc6wt3b
Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation
CAT-AMANIA
Publiée le
Ansible
F5
Fortinet
3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
Offre d'emploi
Data Engineer F/H
VIVERIS
Publiée le
40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
Administrateur Systeme et Réseaux
PHOEBE INFORMATIQUE
Publiée le
Administration Windows
LAN
Office 365
45k-55k €
Paris, France
EMBAUCHE EN CDI dans les équipes du client Missions du poste : . Administration Système Windows et Linux · Réaliser des nouveaux projets concernant l’infrastructure · Prendre en charge le suivi opérationnel des projets et sujets transverses à l’équipe production · Assurer le maintien en condition opérationnelle de l’infrastructure · Contribuer à la résolution des incidents de niveau 2 et 3 avec l’aide de nos partenaires extérieurs · Participer à l’installation et le maintien en condition opérationnelle de l’infrastructure informatique au sens large en direct ou avec le soutien de nos partenaires spécialisés · Rédiger des notes techniques dans la base de connaissance · Contribuer à assurer la surveillance de l’infrastructure · Apporter son expertise et son soutien opérationnel aux équipes Infrastructure et Support · Interface avec les équipes métiers de la DSI · Proposer de solutions d’optimisation des systèmes ou des plateformes · Veille technologique
Offre d'emploi
Product Lead – Digital Industrial Solutions H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
156k-182k €
Aubervilliers, Île-de-France
Contexte de la mission Au sein de notre client, l'équipe Produits Digitaux gère un portefeuille de produits numériques stratégiques qui soutiennent la performance opérationnelle des unités commerciales du Groupe. Dans ce contexte, nous recherchons un Senior Product Manager pour diriger une mission stratégique axée sur l'optimisation de l'incinération des déchets et de la récupération énergétique. Objectifs et livrables La mission se concentre sur la création d'une offre de produits cohérente et évolutive à partir de plusieurs actifs existants liés à l'incinération et aux activités de conversion en énergie. Cette mission se situe à l'intersection de la stratégie produit, de la validation commerciale, de la définition des offres, de la stratégie de mise sur le marché et de l'adoption de l'U. Le Chef de Produit Senior sera responsable des flux de travail suivants : Cadre d'offre stratégique Analyser le positionnement, les forces, les limites et les complémentarités de Hermod, AIfor ERF et TTMP for ERF Définir plusieurs scénarios pour structurer une offre combinée Recommander un modèle produit clair et évolutif Marché, unité commerciale et découverte des utilisateurs Cartographie des besoins réels des unités commerciales et des utilisateurs Mener des entretiens avec les parties prenantes clés : responsables de site, experts en processus, DSI, gestion de BU, sponsors d'entreprise Identifier les points de douleur, les attentes, les critères d'adoption et les cas d'usage prioritaires Qualifier : marchés cibles, segments et zones géographiques prioritaires Validation de la valeur Testez la clarté de la proposition de valeur Identifier les sponsors potentiels, les champions et les premiers adoptants Formaliser les principaux obstacles et facilitateurs d'adoption Fondations du produit Définir la vision produit pour l'offre future Formaliser la proposition de valeur Structurer des spécifications fonctionnelles de haut niveau Définir les KPI produit, métier et adoption Cas métier et modèle de déploiement Construire un business case initial pour l'offre Recommander une stratégie de déploiement progressive selon BU, région ou type de site Mise sur le marché et adoption Développer une stratégie de mise sur le marché pour l'offre combinée Préparer les mécanismes d'activation de l'unité d'affaires Adopter une mentalité fortement orientée vers la conquête (« mentalité de chasseur ») pour stimuler l'adoption et lever les obstacles Gouvernance et documentation Référence de l'offre : hgqx6s6kf1
Mission freelance
Consultant data ODI / Python
ESENCA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator
Python
1 an
Lille, Hauts-de-France
Localisation : Région lilloise Disponibilité : ASAP Contexte : Projet stratégique de transformation et modernisation Data Objectif de la mission Dans le cadre d’un programme de modernisation de la plateforme data, la mission consiste à analyser, documenter et faire évoluer des flux de données existants, avec une perspective de transformation vers des solutions plus modernes basées sur Python. Missions principales Réaliser un inventaire complet des flux de données existants (ODI) Analyser les dépendances, les logiques métiers et les enjeux associés Produire une documentation détaillée des flux (rétro-documentation) Améliorer la lisibilité, la maintenabilité et la gouvernance des traitements Contribuer à la transformation et à la migration des flux vers une nouvelle plateforme Participer à la modernisation de la stack data (orientation Python) Collaborer étroitement avec les équipes techniques et data Environnement technique Oracle Data Integrator (ODI) – expertise impérative Python (manipulation de données, automatisation, ETL) Environnements Data / ETL / flux batch
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Mission freelance
Senior Data Ops Engineer
CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks
1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Mission freelance
Développeur BOARD (H/F)
Nicholson SAS
Publiée le
Azure
Board
Data Lake
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Mission freelance
Chef de projet Data - Lille
ICSIS
Publiée le
Méthode Agile
1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Mission freelance
Administrateur / Auditeur Réseaux (H/F)
EDUGROUPE
Publiée le
Administration réseaux
Audit
1 an
Strasbourg, Grand Est
Contexte de la mission Dans le cadre du renforcement de ses équipes, un de nos clients Grands Comptes dans le secteur de l'Energie recherche un(e) Administrateur / Auditeur Réseaux orienté OT pour intervenir depuis son site de Strasbourg. Vous participerez activement à la sécurisation et à la conformité des infrastructures réseaux de sites industriels, dans un environnement technique exigeant et stratégique. Missions principales Réaliser des audits réseaux OT sur des sites industriels Identifier les risques et vulnérabilités et proposer des plans de remédiation Participer à la mise en conformité des infrastructures Intervenir ponctuellement sur les environnements infrastructure IT et Data Warehouse (DW) Assurer la communication et l’escalade des incidents ainsi que le suivi des actions correctives Produire et maintenir la documentation technique (architectures, schémas, plans réseaux) Élaborer des rapports d’audit détaillés et des listes d’actions Livrables attendus Analyses de risques Analyses de vulnérabilités Rapports d’audit Documentation d’architecture (diagrammes, plans) Suivi d’incidents et reporting Plans d’actions et recommandations
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
6063 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois