L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 170 résultats.
Offre premium
Mission freelance
Ingénieur Cybersécurité (H/F)
Link Consulting
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
Microsoft Purview
Prévention des pertes de données (DLP)
3 mois
450-550 €
Bois-Colombes, Île-de-France
Pour le compte de notre client dans l' assurance , nous recherchons un Ingénieur Cybersécurité spécialisé GRC (H/F) avec une forte appétence pour la sécurité opérationnelle et la montée en compétences vers la gestion de projet. Responsabilités principales : Pilotage et run de solutions DLP / Microsoft Purview . Gestion des campagnes antiphishing et animation des actions de sensibilisation sécurité. Participation active à la sécurité des projets transverses. Appui opérationnel et structuration des pratiques GRC au sein des équipes. Évolution progressive vers des responsabilités en gestion de projet sécurité.
Mission freelance
Chef de Projet MDM & Data Governance
Zenith Rh
Publiée le
12 mois
Nord, France
Nous recherchons pour notre client, un(e) Chef de Projet MDM & Data Governance, pour une mission en freelance au sein d'une organisation d'envergure. Dans le cadre d'une transformation majeure de son écosystème d'information, notre client lance un programme stratégique visant à centraliser et fiabiliser ses données critiques. L'enjeu est de taille : il s'agit de bâtir un socle de données de référence cohérent pour soutenir l'ensemble des usages métiers, de la Business Intelligence à l'Intelligence Artificielle, en passant par le CRM et l'ERP. Sous la direction du Lead Architect ou du Directeur de Programme, vous aurez la double responsabilité de piloter le déploiement opérationnel de la solution MDM et de structurer la gouvernance des données à l'échelle de l'entreprise.
Mission freelance
PROXY PRODUCT OWNER DATA
Codezys
Publiée le
ERP
Finance
P2P
6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Offre d'emploi
Data analyst (F/H/X)
Talents Finance
Publiée le
45k-55k €
Paris, France
Votre mission : Préparer un plan de travail de correction des données Recueillir toutes les données statiques pour l’ERP de l’entreprise Saisir et mettre à jour des données : produits (création article, désignation, paramètres, nomenclature, étapes produits), et compte (création compte fournisseurs et clients) Documenter l’ensemble des contraintes détectées et des actions correctives mise en place pour réunir l’ensemble des données. Catégoriser les données afin de les exploiter au mieux Créer et mettre en place des formulaires de collecte de données et de validation Créer et mettre à jour des manuels de gestion de données Vérifier de la cohérence des données Attribuer des priorités aux demandes des différents services Émettre un tableau de suivi de performance de la gestion data Analyser des données existantes et rechercher des écarts de données Modéliser et assurer les mises à jour régulières de la base de données Analyser et vulgariser les données pour restituer les résultats aux non-spécialistes de la data Autres informations : Département : Technologie de l’information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Offre d'emploi
Développeur Java/Data confirmé
VISIAN
Publiée le
Java
Mongodb
1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Mission freelance
Sénior Data Engineer SQL & GCP
INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)
3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Offre d'emploi
Architecte Réseaux
ANDEMA
Publiée le
Cisco
F5
Palo Alto
60k-70k €
Toulouse, Occitanie
Contexte Dans le cadre de notre stratégie d’optimisation et de standardisation des plateformes IT pour nos clients, nous recherchons un Architecte Réseaux expérimenté pour piloter l’architecture, le déploiement et le suivi des infrastructures techniques. Vous intervenez sur l’ensemble du cycle de vie des plateformes, du design à la mise en production, en passant par le suivi MCO et l’accompagnement des équipes opérationnelles. Missions principales Concevoir et déployer des architectures réseau adaptées aux besoins métiers et techniques. Accompagner les équipes RUN et intervenir en cas d’incidents majeurs. Être responsable de la plateforme et de la roadmap technique. Participer à l’ensemble du cycle de vie des infrastructures : design, mise en œuvre, suivi, évolution. Assurer le suivi MCO et l’accompagnement au changement. Contribuer aux projets majeurs : migration firewall, modernisation F5 BigIP, ouverture de nouveau data center. Assurer la cohérence et la standardisation des architectures sur plusieurs périmètres techniques. Participer à l’automatisation et au scripting (Python, Ansible, Git).
Mission freelance
Administrateur réseaux H/F
Cheops Technology
Publiée le
Administration réseaux
12 mois
400 €
Nantes, Pays de la Loire
Configuration des équipements réseaux - Mise en service / production des solutions - Déploiement de nouveaux cas d’usage - Gestion des incidents et problèmes - Exploitation des outils et infrastructures - Gestion de la documentation - Coopérer avec les administrateurs et chefs de projet RUN du pôle RUN + architectes, intégrateurs et chefs de projets BUILD du pôle BUILD Le prestataire devra utiliser les outils de gestion des changements et de Mise en exploitation (mis en place au sein de STRS); une présentation des outils lui sera faite sur site. Il devra aussi réaliser les supports nécessaires au transfert de compétence vers les membres de l’équipe.
Offre d'emploi
Ingénieur Réseau & Sécurité (H/F)
SPIE ICS
Publiée le
Ansible
BGP (Border Gateway Protocol)
Cisco
12 mois
40k-45k €
550-600 €
Noisy-le-Grand, Île-de-France
Nous recherchons pour notre client un(e) " Ingénieur Réseau & Sécurité (H/F)" afin de participer à la préparation, au déploiement et à la maintenance des équipements réseau et sécurité dans ses nouveaux datacenters. Missions : Préparer et configurer les équipements dans les nouveaux datacenters Participer activement aux tâches de déploiement et de maintenance Gérer et configurer les équipements réseau et sécurité Réaliser des tests de performance et de résilience de l’infrastructure Assurer le support de stabilisation post-migration (correction des bugs, revue des configurations, gestion des tickets support constructeur) Maintenir en conditions opérationnelles le réseau et ses plateformes, en garantissant la conformité aux exigences de résilience opérationnelle Élaborer ou mettre à jour les dossiers techniques (HLD/LLD) Effectuer les montées de version logicielle et le patch management Mettre en place le monitoring, la sauvegarde et la centralisation des logs des équipements réseau et sécurité Assurer le support de niveau 2 et 3 sur les composants d’infrastructure Veiller à la conformité des prestataires externes avec les engagements contractuels (SLA, délais, qualité, performance)
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Mission freelance
Data Analyst Huwise H/F
OUICODING
Publiée le
1 mois
420-580 €
Paris, Île-de-France
Mission : Assurer l'administration, l'alimentation, les évolutions et le run des chaînes de publication (open/partagé), en garantissant qualité, traçabilité et conformité, et en maintenant les visualisations associées. Responsabilités principales : -Recueil & analyse : cadrage des besoins de publication, compréhension des indicateurs et règles de gestion, formalisation des transformations. -Préparation des données : requêtage, transformations, contrôles qualité, automatisation des traitements (SQL/Python). -Publication : mise à jour des jeux de données sur la plateforme de diffusion, gestion des métadonnées, cycles de publication. -Dataviz : maintenance et évolution des visualisations (tableaux de bord, cartes/indicateurs selon le périmètre). -Run & incidents : diagnostic des anomalies, correction, amélioration des chaînes, documentation et tests. -Dev collaboratif : Git, revues, CI/CD, livraison en environnements dev/préprod/prod. Stack / environnement (indicatif) : SQL, Python, Snowflake (ou équivalent DWH), outils de publication Open Data (type OpenDataSoft ou équivalent), Git/GitLab, CI/CD (Azure DevOps ou équivalent), Power BI (selon périmètre).
Offre d'emploi
Ingénieur réseau confirmé
SARIEL
Publiée le
Ansible
Cloud
DNS
12 mois
45k-65k €
380-500 €
Essonne, France
Bonjour, Nous recherchons pour notre client basé en région parisienne un ingénieur réseau confirmé (4-10 ans d’expérience). Objectif global - Administrer Réseau Sécurité Les livrables sont Documentation et Procédure d'exploitation Mode opératoire et Post mortem incident Schéma réseau Compétences techniques Firewall (Palo Alto, Fortinet, Forcepoint...) - Confirmé - Impératif Cloud Public (landing zone) et Cloud Privé (NSX) - Confirmé - Impératif F5 LTM et GTM - Confirmé - Important Service d'accès distant et DNS - Confirmé – Important Connaissances linguistiques Anglais Professionnel (Secondaire) Description détaillée Nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion de la sécurité réseau Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences - Maîtrise des solutions firewall et SDWAN (PaloAlto, Forcepoint, Fortinet) - Expertise des solutions de partage de charge (F5, Avi) - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (Netbox/Nautobot, Ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité. Données complémentaires Date de démarrage 25/03/2026 Lieu de réalisation 91 Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
ingénieur IA / data scientist expérimenté
SKYLLIT
Publiée le
Agent IA
LangChain
LangGraph
1 an
Yvelines, France
Développeur d'agents GenAI – CCOE Data & AI Foundations Nous recherchons un ingénieur IA / data scientist expérimenté ayant conçu des agents de niveau production,avec sécurité, gestion des identités et observabilité. Ce poste est au cœur d'une initiative mondiale visant à accélérer l'industrialisation et la mise à l'échelle de l'IA générative au sein de l'organisation, et prenant en charge plus de 80 000 utilisateurs dans 65 pays. Au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations, vous participerez au développement du SDK au sein de l'équipe de la plateforme GenAI pour le développement d'agents, afin de garantir la cohérence, la mise à l'échelle et la mise en production de tous les agents développés. Vous travaillerez en collaboration avec différentes équipes pour définir et faire évoluer le SDK, afin de le rendre utile, utilisable et adopté par les ingénieurs IA / data scientists. Le SDK est un produit essentiel pour de multiples environnements, des infrastructures sur site sécurisées aux déploiements cloud mondiaux. Ce poste est idéal pour un ingénieur en IA maîtrisant le fonctionnement des agents, la gestion des identités et la sécurité, et possédant une approche pragmatique du déploiement de produits et services de niveau production. Il/Elle sera désireux(se) de contribuer à façonner la conception, l'exploitation et la maintenance des agents d'IA à l'échelle de l'entreprise.
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Contrôleur de gestion industriel Data / ERP (H/F) - 59
Mindquest
Publiée le
Finance
Microsoft Power BI
SAP
9 mois
Nord, France
Dans un contexte de montée en cadence industrielle, l’entreprise doit renforcer la maîtrise de ses flux matières, la fiabilité de ses données de production et l’alignement entre les opérations, les systèmes d’information et la finance. Aujourd’hui, les outils de suivi matière et les pratiques de déclaration ne permettent pas encore une vision consolidée et précise de la consommation réelle, des écarts de stock et du yield. Les inventaires tournants, les déclarations en fin de shift, la granularité des données issues de l’ERP et l’autonomie des unités de production génèrent des écarts qui doivent être structurés, analysés et maîtrisés. L’objectif est donc de sécuriser les coûts, fiabiliser les reportings et mettre en place un pilotage robuste des performances industrielles. 1. Maîtrise des flux matière & des écarts - Analyse de la consommation théorique (BOM), déclarée (ERP) et ajustée (inventaires). - Réconciliation régulière des écarts et réaffectation aux bons processus. - Suivi et valorisation du scrap, analyse des causes. - Suivi du yield sur l’ensemble de la chaîne de production. - Mise en place d’un Pareto des écarts (stocks, consommations, production). 2. Alignement ERP – Finance – Opérations - Audit des flux ERP : ordres de fabrication, mouvements matières, inventaires, nomenclatures. - Standardisation des méthodes de déclaration et correction des écarts. - Mise en place de contrôles fiables pour garantir la cohérence des données. - Renforcement de la discipline de saisie et de la qualité des données opérationnelles. 3. Développement d’outils analytiques et de pilotage - Création de dashboards de pilotage (Power BI) : o consommation matière par processus, période, référence o yield global et par étape o coût du scrap (fréquence quotidienne/hebdomadaire) o traçabilité intégrale des données vers l’ERP - Automatisation des flux de données : extraction ? transformation ? reporting - Mise en place de contrôles automatisés et d’alertes sur les anomalies - Développement d’un module de projection / forecast (scénarios coûts & performance) 4. Interface opérationnelle & immersion terrain - Présence régulière au sein des unités de production. - Observation des pratiques de déclaration, animation des corrections et bonnes pratiques. - Boucles de feedback avec les managers opérationnels pour améliorer la qualité de données. - Sensibilisation des équipes aux impacts financiers des écarts et déclarations. 5. Structuration, documentation & transfert - Cartographie complète des flux matières et des flux de données. - Documentation opérationnelle : procédures, règles de calcul, standard work. - Formalisation des processus de déclaration et d’inventaire. - Transfert de compétences aux équipes internes (Finance, Supply Chain, Production). - Mise en place d’indicateurs de qualité de données permettant un pilotage autonome.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7170 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois