L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 339 résultats.
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Offre d'emploi
Data Scientist (H/F)
█ █ █ █ █ █ █
Publiée le
Deep Learning
Numpy
Python
40k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Offre d'emploi
Expert DevOps spécialisé Windows Server
RIDCHA DATA
Publiée le
Active Directory
Ansible
DHCP (Dynamic Host Configuration Protocol)
1 an
Paris, France
Nous recherchons un Expert DevOps spécialisé Windows Server afin de renforcer l’expertise technique autour de l’automatisation, de la gestion des infrastructures Windows et des déploiements à grande échelle. Le poste s’inscrit dans un environnement critique, avec pour objectif de concevoir, automatiser et fiabiliser les processus liés aux infrastructures Windows. Le candidat interviendra également sur des projets majeurs de migration, d’upgrade et de modernisation. Une forte maîtrise des outils DevOps (notamment Ansible, Puppet) ainsi que du scripting multi-langages est attendue, avec une capacité à assurer un rôle de leadership technique sur des sujets structurants.
Offre d'emploi
Administrateur système et réseau H/F
PROXIEL
Publiée le
Administration systèmes et réseaux
LAN
5 ans
32k-38k €
300-350 €
Narbonne, Occitanie
Nous recherchons pour notre client situé sur Narbonne un Administrateur système et réseau H/F. Missions : Dans le cadre du renforcement de son équipe IT, notre client, acteur majeur du secteur industriel, recherche un(e) Administrateur(trice) Systèmes & Réseaux pour intervenir sur un environnement technique exigeant et sécurisé : · Administration des serveurs (Windows / Linux) · Gestion des infrastructures réseau (LAN/WAN, VLAN, routage, Wi-Fi) · Supervision et maintien en condition opérationnelle des systèmes · Gestion des incidents niveau 2 et 3 · Mise en œuvre des politiques de sécurité (sauvegardes, antivirus, firewall, droits d’accès) · Participation aux projets d’évolution et de modernisation du SI · Rédaction de la documentation technique · Support technique aux utilisateurs Profil : Formation Bac+3 à +5 en informatique, vous détenez minimum 5 ans d’expérience. Vous avez une bonne maîtrise des réseaux LAN/WAN ainsi que sur MCS. Une expérience en secteur industriel sensible est appréciée.
Offre d'emploi
Solution Architect (H/F) – Cloud & Architecture Data (Azure / API / Microservices)
Craftman data
Publiée le
API
AWS Cloud
Java
3 mois
40k-50k €
400-580 €
Luxembourg
Dans le cadre d’un programme de transformation digitale à l’échelle européenne, nous recherchons un Solution Architect senior pour accompagner plusieurs initiatives stratégiques dans un environnement en forte évolution. La mission s’inscrit dans un contexte où les plateformes globales sont en cours de déploiement, nécessitant la mise en place de solutions intermédiaires, pragmatiques et rapidement déployables , tout en garantissant leur alignement avec l’architecture cible. Le rôle est au cœur de la transformation, à l’interface entre les équipes métier et techniques, avec un objectif clair : concevoir des solutions robustes, scalables et orientées delivery . Recueillir et analyser les besoins métiers Traduire les besoins en solutions techniques pragmatiques Concevoir des architectures applicatives et d’intégration Participer à la définition des choix technologiques Assurer la cohérence des solutions avec les standards groupe Accompagner les équipes de delivery (Dev, Data, DevOps) Produire une documentation claire et orientée décision Garantir la scalabilité, la sécurité et la performance Contribuer à l’amélioration continue des architectures
Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ (F5 firewall Azure) au Havre
ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
F5
Firewall
3 mois
400-600 €
Le Havre, Normandie
CONTEXTE DE LA MISSION Dans le cadre de la consolidation de son infrastructure réseau et sécurité et de sa transformation vers une architecture micro-services, nous recherchons un Ingénieur Réseau & Sécurité Senior pour auditer, valider et consolider l'existant et sécuriser les opérations d’exploitation. L'environnement technique actuel repose sur une infrastructure multisites hybride Azure/on-premises avec connectivité Azure ExpressRoute, load balancers F5, firewalls Check Point, DRP géo-distribués. CONSOLIDATION DE L'EXISTANT Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage - Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL offloading, iRules - Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL - Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute - Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées TRANSFERT & ACCOMPAGNEMENT EQUIPES - Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances - Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage - Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point
Offre d'emploi
Senior Data Scientist
Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python
6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F
LeHibou
Publiée le
AI
AWS Cloud
Snowflake
3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
400-600 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Mission freelance
FREELANCE – Data Manager (H/F)
Jane Hope
Publiée le
Data Strategy
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06) est à la recherche d’un Data Manager (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Traduire les besoins métiers mis en lumière par le business analyst en besoins techniques notamment en termes de requêtes SQL et de tableaux de bord à mettre en place · Être l’interface technique auprès du client : accompagner les clients ayant des lacunes en requêtes SQL et leur proposer des solutions · Occuper un rôle de data manager mentor pour transmettre l’information et accompagner les équipes · Echanger avec différents interlocuteurs, aussi bien techniques que métiers · Animer des ateliers pour présenter les modèles et faire monter en compétences l’ensemble des clients
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Offre d'emploi
Consultant BI / Data Analyst – ALM / Risque de liquidité
RIDCHA DATA
Publiée le
Data Lake
Data Warehouse
Microsoft Power BI
1 an
40k-45k €
340-480 €
Paris, France
🔹 Contexte : Dans le cadre du renforcement des capacités d’analyse et de pilotage des risques, un acteur majeur du secteur bancaire recherche un consultant BI / Data Analyst pour intervenir au sein de l’équipe ALM / Gestion de la Liquidité. Cette équipe est en charge de : La conformité réglementaire des ratios de liquidité L’anticipation des besoins de financement L’optimisation des ressources financières Le suivi des KPI liés à la liquidité La coordination avec les équipes métiers (Trésorerie, Risques, Finance…) 🔹 Détails de la mission : Démarrage : 15/04/2026 Durée : 12 mois Localisation : Paris (75) Télétravail : 2 jours / semaine 🔹 Missions principales : Conception de dashboards BI pour le suivi des ratios de liquidité Réalisation d’analyses ad-hoc Mise en place d’un portail BI centralisant les données de liquidité Gestion de la data visualisation avancée (drill-down, multi datasets) Optimisation des performances des interfaces (GUI) Participation à la modélisation des données Documentation technique et formation des utilisateurs 🔹 Environnement technique : Outils BI : Power BI / Tableau / Qlik Data : Data warehouse / Data lake Langages : Python / R (souhaité)
Mission freelance
Data Gouvernance
Kamatz
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Lille, Hauts-de-France
Freelance Data Catalog Engineer – Collibra Mission – Data Platform / Data Governance Nous recherchons un(e) Freelance Data Catalog Engineer spécialisé(e) Collibra pour accompagner l’évolution et l’intégration du Data Catalog au sein d’un écosystème data moderne. Vos missions Configuration & développement Collibra Concevoir et implémenter des solutions répondant aux besoins métiers Administrer et configurer le Data Catalog (workflows, assets, modèles) Développer et déployer des workflows adaptés aux cas d’usage Recueillir, analyser et prioriser les besoins utilisateurs Intégration Data Platform Participer à l’intégration du Data Catalog avec les outils de la Data Platform Développer et maintenir les échanges de métadonnées (APIs, connecteurs, crawlers) Configurer les capacités Edge selon les périmètres de collecte Collaborer avec les équipes architecture et data engineering Data Governance & Qualité Contribuer aux initiatives de gouvernance des données Intégrer les indicateurs de qualité (Data Quality Metrics Store) Participer au programme Data Contract Compétences techniques attendues Solide expérience sur Collibra Data Catalog (configuration, administration, workflows) Maîtrise des APIs, connecteurs et intégration de systèmes Bonne compréhension des architectures Data Platform / Data Lake / Data Warehouse Expérience en data governance et gestion des métadonnées Connaissance des outils de data quality est un plus
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Mission freelance
Product Owner AI Chatbot & Copilot - Full remote
Net technologie
Publiée le
Copilot
IA Générative
Product management
6 mois
Paris, France
Dans le cadre d’une transformation majeure portée par l’IA Générative et le digital, nous recherchons un Product Owner senior pour piloter la stratégie, la roadmap et l’exploitation d’un écosystème de chatbots d’entreprise et de Copilot. 🎯 Enjeux : structurer un écosystème conversationnel cohérent, sécurisé, gouverné et largement adopté, autour de Microsoft 365 Copilot , ChatGPT Enterprise et autres chatbots internes. 🛠 Missions : Définir la stratégie et le positionnement des plateformes conversationnelles Piloter la vision produit, la roadmap et le backlog Travailler en étroite collaboration avec IT, sécurité, architecture et métiers Suivre la gouvernance, la compliance, les coûts, l’adoption et les KPIs Veiller au respect des principes de Responsible AI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6339 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois