L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 151 résultats.
Mission freelance
Data Analyst Lutte contre la fraude
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python
2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Offre premium
Mission freelance
Ingénieur Cybersécurité (H/F)
Link Consulting
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
Microsoft Purview
Prévention des pertes de données (DLP)
3 mois
450-550 €
Bois-Colombes, Île-de-France
Pour le compte de notre client dans l' assurance , nous recherchons un Ingénieur Cybersécurité spécialisé GRC (H/F) avec une forte appétence pour la sécurité opérationnelle et la montée en compétences vers la gestion de projet. Responsabilités principales : Pilotage et run de solutions DLP / Microsoft Purview . Gestion des campagnes antiphishing et animation des actions de sensibilisation sécurité. Participation active à la sécurité des projets transverses. Appui opérationnel et structuration des pratiques GRC au sein des équipes. Évolution progressive vers des responsabilités en gestion de projet sécurité.
Mission freelance
Technicien NOC N 1_Systèmes & Réseaux H/F
TIBCO
Publiée le
Réseaux
Supervision
6 mois
Saint-Aignan-Grandlieu, Pays de la Loire
Mission Nous recherchons pour notre NOC un Technicien NOC N1 Systèmes et réseaux H/F. Rattaché au Responsable opérationnel du NOC / Responsable NOC. Au sein du Network Operations Center (NOC), le technicien de supervision de niveau 1 assure la surveillance proactive, le traitement des alertes et la gestion des incidents de premier niveau sur les infrastructures systèmes, réseaux, applications et sauvegardes de notre client pour les Point De Vente. Vous contribuez à la disponibilité, la stabilité et la robustesse des infrastructures, dans le respect des procédures, des engagements de service (SLA) et des règles de sécurité. Supervision et surveillance * Surveiller l’infrastructure serveurs, réseaux et applications à l’aide des outils de supervision mis à disposition (hyperviseur, outils de monitoring). * Analyser la disponibilité, la stabilité et la performance des infrastructures. * Détecter les alertes, incidents, pannes ou surcharges. Gestion des alertes et incidents (Niveau 1) * Prendre en compte les alertes issues des outils de supervision. * Créer, qualifier et traiter les tickets via l’outil ITSM. * Appliquer strictement les fiches consignes de notre client . * Réaliser les actions de premier niveau : * Arrêt / relance de services, applications ou serveurs * Vérifications de fonctionnement * Escalader les incidents vers les équipes concernées si nécessaire. * Enregistrer et mettre à jour les incidents dans les bases de suivi. * Apporter un premier diagnostic selon les procédures du client * Assurer la communication et le reporting vers le client Exploitation systèmes * Diagnostiquer les incidents systèmes récurrents. * Redémarrer des services logiciels ou des serveurs (matériel) selon procédure. * Participer aux tests de bascule d’infrastructure (PCA). Exploitation réseaux * Veiller à la disponibilité et à la stabilité du réseau. * Identifier et diagnostiquer les dysfonctionnements réseau. * Appliquer l’ensemble des procédures de notre client sur détection d’incident réseau. Sauvegardes et restaurations Coordination et pilotage des interventions * Déclencher les interventions nécessaires en définissant : * Le niveau d’urgence * Les modalités d’intervention * Participer au pilotage de la résolution des incidents : * Planification des interventions * Coordination des moyens associés Responsabilités * Respect des procédures d’exploitation, de sécurité et de qualité. * Respect des SLA et des engagements contractuels. * Traçabilité et fiabilité des informations saisies dans les outils. * Contribution à l’amélioration continue du service.
Mission freelance
Ingénieur Réseau & Sécurité – Expert WiFi (H/F)
ALLEGIS GROUP
Publiée le
Administration réseaux
WIFI
1 an
Fontenay-sous-Bois, Île-de-France
Dans le cadre du renforcement des équipes Réseau & Sécurité, le client recherche un Ingénieur Réseau & Sécurité – Expert WiFi . Votre rôle : garantir la performance, la disponibilité et la sécurité des environnements critiques du groupe , tout en assurant un haut niveau d’expertise sur les infrastructures WiFi. 1️⃣ Expertise avancée sur les infrastructures WiFi Analyse approfondie, diagnostic et troubleshooting avancé Optimisation des performances, couverture et qualité de service Gestion des incidents majeurs et traitement des problèmes récurrents 2️⃣ Contribution au périmètre Réseau & Sécurité global Interventions sur les environnements LAN / WAN / MAN / sécurité périmétrique Supervision & monitoring, capacity planning Contrôle de conformité, respect des standards et bonnes pratiques sécurité 3️⃣ Participation aux opérations et projets techniques Intégration et déploiement de nouvelles solutions réseau et sécurité Participation aux mises en production et validations techniques Rédaction de documentation, amélioration continue des processus Collaboration transverse avec les équipes internes, partenaires et fournisseurs
Offre d'emploi
Ingénieur Base de Données H/F
Le Groupe SYD
Publiée le
Ansible
Bash
Greenplum
9 mois
42k-47k €
450-480 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Base de Données H/F 📍 Lieu : Niort (79) 🏠 Télétravail : Jusqu’à 3 jours/semaine 📝 Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur majeur du secteur mutualiste et assurantiel , engagé dans la transformation et la modernisation de ses plateformes Data . L’environnement est critique, fortement réglementé, et structuré en collectifs agiles dédiés au stockage des données, au sein d’équipes multidisciplinaires travaillant sur Oracle, PostgreSQL, Greenplum et Redis . Tu auras pour missions de : Gérer les comptes, droits et permissions (bases / schémas) et résoudre les anomalies associées. Réaliser des refresh et copies de données (ptech, PL/pgSQL) et faire évoluer le code si nécessaire. Mettre à jour sauvegardes, fichiers YAML et paramètres SQL. Contribuer au développement d’outils (ptech, PL/pgSQL, Python) et produire des scripts d’automatisation. Assurer le MCO : TNR, corrections, fiabilisation, fonctionnement nominal et mises à jour. Préparer la documentation technique, gérer les changements et réaliser les mises en production. 🧰 Stack technique : Base de données & Data : PostgreSQL (expert), Greenplum (connaissance ou forte appétence), Redis / Redis Sentinel / Redis HA. Automatisation & scripting : Bash, SQL, PL/pgSQL, Python, Ansible (expert). Systèmes : Linux (maîtrise des fondamentaux). Environnements : contextes critiques, Data management, collectifs agiles, industrialisation & automatisation.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Ingénieur réseau confirmé
SARIEL
Publiée le
Ansible
Cloud
DNS
12 mois
45k-65k €
380-500 €
Essonne, France
Bonjour, Nous recherchons pour notre client basé en région parisienne un ingénieur réseau confirmé (4-10 ans d’expérience). Objectif global - Administrer Réseau Sécurité Les livrables sont Documentation et Procédure d'exploitation Mode opératoire et Post mortem incident Schéma réseau Compétences techniques Firewall (Palo Alto, Fortinet, Forcepoint...) - Confirmé - Impératif Cloud Public (landing zone) et Cloud Privé (NSX) - Confirmé - Impératif F5 LTM et GTM - Confirmé - Important Service d'accès distant et DNS - Confirmé – Important Connaissances linguistiques Anglais Professionnel (Secondaire) Description détaillée Nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion de la sécurité réseau Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences - Maîtrise des solutions firewall et SDWAN (PaloAlto, Forcepoint, Fortinet) - Expertise des solutions de partage de charge (F5, Avi) - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (Netbox/Nautobot, Ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité. Données complémentaires Date de démarrage 25/03/2026 Lieu de réalisation 91 Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
ingénieur IA / data scientist expérimenté
SKYLLIT
Publiée le
Agent IA
LangChain
LangGraph
1 an
Yvelines, France
Développeur d'agents GenAI – CCOE Data & AI Foundations Nous recherchons un ingénieur IA / data scientist expérimenté ayant conçu des agents de niveau production,avec sécurité, gestion des identités et observabilité. Ce poste est au cœur d'une initiative mondiale visant à accélérer l'industrialisation et la mise à l'échelle de l'IA générative au sein de l'organisation, et prenant en charge plus de 80 000 utilisateurs dans 65 pays. Au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations, vous participerez au développement du SDK au sein de l'équipe de la plateforme GenAI pour le développement d'agents, afin de garantir la cohérence, la mise à l'échelle et la mise en production de tous les agents développés. Vous travaillerez en collaboration avec différentes équipes pour définir et faire évoluer le SDK, afin de le rendre utile, utilisable et adopté par les ingénieurs IA / data scientists. Le SDK est un produit essentiel pour de multiples environnements, des infrastructures sur site sécurisées aux déploiements cloud mondiaux. Ce poste est idéal pour un ingénieur en IA maîtrisant le fonctionnement des agents, la gestion des identités et la sécurité, et possédant une approche pragmatique du déploiement de produits et services de niveau production. Il/Elle sera désireux(se) de contribuer à façonner la conception, l'exploitation et la maintenance des agents d'IA à l'échelle de l'entreprise.
Offre d'alternance
Alternance - Data Engineer H/F/X
█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD
Saint-Denis, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Mission freelance
Administrateur réseaux H/F
Cheops Technology
Publiée le
Administration réseaux
12 mois
400 €
Nantes, Pays de la Loire
Configuration des équipements réseaux - Mise en service / production des solutions - Déploiement de nouveaux cas d’usage - Gestion des incidents et problèmes - Exploitation des outils et infrastructures - Gestion de la documentation - Coopérer avec les administrateurs et chefs de projet RUN du pôle RUN + architectes, intégrateurs et chefs de projets BUILD du pôle BUILD Le prestataire devra utiliser les outils de gestion des changements et de Mise en exploitation (mis en place au sein de STRS); une présentation des outils lui sera faite sur site. Il devra aussi réaliser les supports nécessaires au transfert de compétence vers les membres de l’équipe.
Mission freelance
Data Analyst Huwise H/F
OUICODING
Publiée le
1 mois
420-580 €
Paris, Île-de-France
Mission : Assurer l'administration, l'alimentation, les évolutions et le run des chaînes de publication (open/partagé), en garantissant qualité, traçabilité et conformité, et en maintenant les visualisations associées. Responsabilités principales : -Recueil & analyse : cadrage des besoins de publication, compréhension des indicateurs et règles de gestion, formalisation des transformations. -Préparation des données : requêtage, transformations, contrôles qualité, automatisation des traitements (SQL/Python). -Publication : mise à jour des jeux de données sur la plateforme de diffusion, gestion des métadonnées, cycles de publication. -Dataviz : maintenance et évolution des visualisations (tableaux de bord, cartes/indicateurs selon le périmètre). -Run & incidents : diagnostic des anomalies, correction, amélioration des chaînes, documentation et tests. -Dev collaboratif : Git, revues, CI/CD, livraison en environnements dev/préprod/prod. Stack / environnement (indicatif) : SQL, Python, Snowflake (ou équivalent DWH), outils de publication Open Data (type OpenDataSoft ou équivalent), Git/GitLab, CI/CD (Azure DevOps ou équivalent), Power BI (selon périmètre).
Offre d'emploi
Technicien Système et Réseau H/F
VIVERIS
Publiée le
30k-35k €
Boulogne-Billancourt, Île-de-France
Contexte de la mission : Au sein du département Administration Système et Réseau de Viveris, vous interviendrez en tant que Technicien Support pour renforcer l'équipe existante. Le poste se compose de 70 % de support aux utilisateurs Viveris, particulièrement du support de proximité, les 30% restants sont dédiés à l'évolution de l'infrastructure locale, et à des projets. Le poste est basé à Boulogne-Billancourt et en full présentiel, maximum 1jour de Télétravail par semaine.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
Contrôleur de gestion industriel Data / ERP (H/F) - 59
Mindquest
Publiée le
Finance
Microsoft Power BI
SAP
9 mois
Nord, France
Dans un contexte de montée en cadence industrielle, l’entreprise doit renforcer la maîtrise de ses flux matières, la fiabilité de ses données de production et l’alignement entre les opérations, les systèmes d’information et la finance. Aujourd’hui, les outils de suivi matière et les pratiques de déclaration ne permettent pas encore une vision consolidée et précise de la consommation réelle, des écarts de stock et du yield. Les inventaires tournants, les déclarations en fin de shift, la granularité des données issues de l’ERP et l’autonomie des unités de production génèrent des écarts qui doivent être structurés, analysés et maîtrisés. L’objectif est donc de sécuriser les coûts, fiabiliser les reportings et mettre en place un pilotage robuste des performances industrielles. 1. Maîtrise des flux matière & des écarts - Analyse de la consommation théorique (BOM), déclarée (ERP) et ajustée (inventaires). - Réconciliation régulière des écarts et réaffectation aux bons processus. - Suivi et valorisation du scrap, analyse des causes. - Suivi du yield sur l’ensemble de la chaîne de production. - Mise en place d’un Pareto des écarts (stocks, consommations, production). 2. Alignement ERP – Finance – Opérations - Audit des flux ERP : ordres de fabrication, mouvements matières, inventaires, nomenclatures. - Standardisation des méthodes de déclaration et correction des écarts. - Mise en place de contrôles fiables pour garantir la cohérence des données. - Renforcement de la discipline de saisie et de la qualité des données opérationnelles. 3. Développement d’outils analytiques et de pilotage - Création de dashboards de pilotage (Power BI) : o consommation matière par processus, période, référence o yield global et par étape o coût du scrap (fréquence quotidienne/hebdomadaire) o traçabilité intégrale des données vers l’ERP - Automatisation des flux de données : extraction ? transformation ? reporting - Mise en place de contrôles automatisés et d’alertes sur les anomalies - Développement d’un module de projection / forecast (scénarios coûts & performance) 4. Interface opérationnelle & immersion terrain - Présence régulière au sein des unités de production. - Observation des pratiques de déclaration, animation des corrections et bonnes pratiques. - Boucles de feedback avec les managers opérationnels pour améliorer la qualité de données. - Sensibilisation des équipes aux impacts financiers des écarts et déclarations. 5. Structuration, documentation & transfert - Cartographie complète des flux matières et des flux de données. - Documentation opérationnelle : procédures, règles de calcul, standard work. - Formalisation des processus de déclaration et d’inventaire. - Transfert de compétences aux équipes internes (Finance, Supply Chain, Production). - Mise en place d’indicateurs de qualité de données permettant un pilotage autonome.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6151 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois