Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 389 résultats.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Expert Réseau Sécurité Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Expert Réseau & Sécurité Infrastructure pour être lead dans une équipe BUILD+Run. Dans un environnement Réseau Datacenter + Cloud privé, le client recherche un profil tres expérimenté Fortes compétences Réseaux + F5 + Checkpoint + Fortinet + Zscaler Avoir la capacité de faire, mais aussi de réfléchir en prenant du recul, et de proposer des solutions en soutien des équipes d'experts côté réseau et sécurité des socles d'infrastructure. Les compétences techniques attendues sont les suivantes : • Expertise avancée des infrastructures Cisco VXLAN, EVPN, L2VNI • Expertise des infras de Sécurité : Checkpoint, Fortinet, F5 • Expérience dans le domaine des solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA ...) • Expérience SIEM Splunk • Expérience Système : Redhat linux 8, Windwos 2019 • Connaissance en Scripting Shell, Ansible Network Automation, Terraform Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Expérience de conception des architectures réseaux et sécurité • Réalisation de projets techniques sur son domaine d'activités • Expérience de suivi & reporting de l'activité au management
Freelance

Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes

WorldWide People
Publiée le
IA Générative

3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Freelance

Mission freelance
IA Delivery Lead

ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
CDI
CDD

Offre d'emploi
Expert IA Python – CDI (H/F)

TOP TECH
Publiée le
Agent IA
Python

1 an
30k-50k €
France
Démarrage : ASAP Contrat : CDI Expérience : +5 ans Dans le cadre du développement de projets innovants autour de l’intelligence artificielle, TopTech recherche un Expert IA Python pour intervenir sur des projets stratégiques au sein d’un environnement métier exigeant. Vous contribuerez à la conception et à la mise en œuvre de solutions d’intelligence artificielle avancées destinées à optimiser les processus métiers liés notamment à la gestion d’actifs, au trading, au risque et au reporting. Vos missions Participer à la conception et à la définition des solutions IA adaptées aux besoins métiers Développer et intégrer des solutions basées sur l’intelligence artificielle et l’IA générative Industrialiser les solutions afin de garantir performance, robustesse et maintenabilité Mettre en place les mécanismes de monitoring et d’évaluation des modèles Contribuer au déploiement et à l’automatisation des solutions Rédiger la documentation technique et les bonnes pratiques Environnement technique Python avancé pour le développement de solutions IA Intégration d’API et SDK IA (OpenAI / Azure OpenAI / Claude / Mistral ou équivalent) Architectures d’ agents IA et automatisation intelligente Outils DevOps : Git, , CI/CD Bases de données : SQL Server 📩 Intéressé(e) ? Envoyez votre CV à :
Freelance

Mission freelance
Expert Devops IA h/f

Freelance.com
Publiée le
AWS Cloud
DevOps
IA Générative

6 mois
400-600 €
Saint-Denis, Île-de-France
Dans le cadre d'un programme d'Accélération Digitale, notre client recherche un Expert DevOps IA Générative pour intégrer une équipe Data & IA et contribuer à la conception, au développement et à l'industrialisation de solutions basées sur des modèles de langage (LLM) et l'IA Générative. Évaluer les cas d'usage IA Générative des métiers, collecter les besoins et proposer des solutions techniques adaptées Concevoir et développer des pipelines RAG (préparation de données textes, images, tableaux), architectures agentiques et fine-tuning de modèles LLM Mettre en place et évaluer les performances des POCs/POTs et être force de proposition sur les choix techniques Optimiser les ressources (mémoire, puissance de calcul, micro-services) pour des déploiements à l'échelle sur AWS Industrialiser et mettre en service les solutions IA, assurer le MCO des solutions déployées Accompagner les équipes Data Scientists dans l'intégration des modèles dans les applications existantes ou nouvelles Cette mission représente un enjeu stratégique clé pour la transformation digitale d'un acteur de premier plan dans le secteur des transports.
CDI

Offre d'emploi
Ingénieur Data / Data Scientist - Secteur Aéronautique (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Python
SQL

37k-43k €
Marignane, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur web / Data (H/F)

ADSearch
Publiée le

50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Freelance

Mission freelance
SOC Detection Lead Expert

Codezys
Publiée le
Active Directory
Powershell
Python

12 mois
Paris, France
Le Security Operations Center (SOC) capacités suivantes : détection d’incidents de sécurité, chasse aux menaces, réponse aux incidents et renseignement sur les menaces. La philosophie fondamentale Nous croyons que le meilleur service pour élaborer une règle de détection est celui qui connaît parfaitement comment la contourner. Nous recherchons un Red Teamer souhaitant évoluer vers notre Stratégiste principal en détection. Vous serez responsable de la qualité et de l’orientation de notre logique de détection : évaluer notre posture en matière de télémétrie et de journalisation, identifier les lacunes de visibilité, définir les besoins en détection et rédiger des contenus de détection précis et résistant aux techniques de contournement du monde réel. Vous ferez le lien entre les techniques offensives et les résultats du SOC, en traduisant le comportement des attaquants en détections durables et exploitables. Objectifs et livrables Focus principal : Ingénierie de la détection Responsabilité principale : Garantir que chaque mouvement d’adversaire soit détecté. Vous passerez la majorité de votre temps dans notre SIEM, en élaborant des alertes de haute précision basées sur votre analyse des tactiques, techniques et procédures (TTP) offensives. Création de logique : Rédiger des requêtes KQL complexes pour repérer des comportements avancés (par exemple, manipulation de tokens, jitter C2, etc.), plutôt que de simples correspondances d’indicateurs de compromission (IOC). Analyse de la télémétrie : Examiner en profondeur les logs bruts provenant de l’EDR, des fournisseurs d’identités et de l’infrastructure cloud pour identifier les données manquantes et définir les politiques de journalisation adéquates. Réduction des faux positifs : Utiliser votre connaissance des comportements normaux versus malveillants pour ajuster et affiner les règles existantes, afin d’éviter une surcharge d’alertes pour le SOC. Focus secondaire : Emulation ciblée d’adversaires Vous continuerez à réaliser des attaques, mais avec un objectif différent : générer des données. Vous exécuterez des séquences d’attaque manuelles pour vérifier le déclenchement des nouvelles règles, puis analyserez et simulerez des techniques spécifiques (cadrées selon le cadre MITRE ATT&CK) afin d’identifier et de combler les lacunes de notre détection. Responsabilités clés du service : Traduire le renseignement sur les menaces complexes et les techniques de Red Team en logique de détection exploitable (KQL). Revoir et optimiser la bibliothèque de règles de détection existante pour garantir leur précision et leur couverture. Collaborer avec l’équipe de réponse aux incidents pour comprendre pourquoi certaines attaques ont été manquées, et concevoir des règles pour empêcher leur récidive.
Freelance

Mission freelance
Manager CDG / CDG Senior (10-15 ans) - GIE

STHREE SAS pour HUXLEY
Publiée le

6 mois
75001, Paris, Île-de-France
🚀 Contrôleur de Gestion Senior - Renfort Opérationnel & Vision Organisationnelle (H/F) 📍 Paris / IDF | 🏦 Client final confidentiel - Environnement bancaire / GIE 🎯 Contexte de la mission Nous accompagnons un acteur majeur du secteur bancaire , organisé en GIE , dans le cadre d'un renfort immédiat en contrôle de gestion . La mission s'inscrit dans un contexte très opérationnel , visant à : sécuriser l'activité, assurer un relais fonctionnel et opérationnel , tout en apportant un regard externe sur l'organisation du pilotage financier. La mission est positionnée a minima jusqu'à la fin de l'année , avec un besoin urgent de démarrage . ✅ Objectifs de la mission Prendre le relais opérationnel sur le périmètre contrôle de gestion. Être pleinement mains dans le cambouis sur le run quotidien. Réaliser un état des lieux 360° : organisation de l'équipe, processus de pilotage, pratiques de facturation et refacturation. Apporter une vision structurante et pragmatique , sans démarche lourde de transformation. Challenger et analyser des clés de facturation complexes (logique non classique de contrôle de gestion). Contribuer à la réflexion sur l' organisation cible et à la préparation d'un futur recrutement interne . Être un sparring partner de la manager, capable de prendre du recul tout en assurant l'exécution. 🧰 Périmètre & enjeux Environnement GIE avec une logique proche d'une industrie informatique (IT) . Contrôle de gestion non classique : centres de coûts, refacturation interne, peu ou pas de logique commerciale. Outils majoritairement maison , avec utilisation de Power BI . Environnement exigeant, structuré et mutualisé. 👤 Profil recherché Contrôleur de gestion senior (idéalement 10 à 15 ans d'expérience et plus ). Expérience confirmée en banque / services financiers / environnements mutualisés ou IT . Profil très opérationnel , capable d'absorber rapidement un périmètre complexe. Solide capacité à : organiser, structurer, prioriser, sécuriser les process. Aisance relationnelle, posture de référent et capacité à travailler en proximité avec le management. Capacité à prendre du recul sans perdre l'opérationnel . À l'aise dans des contextes où le contrôle de gestion est indirect, technique et transverse . ⏱️ Contraintes de mission Démarrage rapide souhaité (ASAP) . Mission prévue au minimum jusqu'à la fin de l'année . Forte exigence de disponibilité opérationnelle (notamment en période estivale). Budget encadré, recherche d'un profil efficace et pragmatique .
CDI
Freelance

Offre d'emploi
Expert & Référent Poste de Travail H/F

Le Groupe SYD
Publiée le
Active Directory
Exchange Online
Intune

36 mois
42k-48k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Expert & Référent Poste de Travail H/F 📍 Lieu : Mérignac (33) 🏠 Télétravail : 2 jours/semaine 📝 Contrat : CDI - pré-embauche 👉 Contexte client : Tu rejoins un acteur national du secteur de la distribution spécialisée , engagé dans un vaste programme de transformation de son système d’information. Dans un environnement retail en pleine évolution, les postes de travail, l’environnement Microsoft 365 et les outils collaboratifs sont au cœur de la performance et du fonctionnement opérationnel de l’entreprise. Rattaché à la Direction Technique, tu deviens le référent technique du Poste de Travail : tu pilotes les choix d’architecture, garantis la cohérence des environnements bureautiques et accompagnes les équipes sur un périmètre stratégique couvrant Windows, Office 365, collaboration et mobilité. Tu auras pour missions de : Définir l’architecture du poste de travail et des services bureautiques. Concevoir et maintenir les standards : master, configurations, modèles Intune, packages applicatifs. Garantir la cohérence technique entre Windows, Office 365, mobilité et outils de collaboration. Accompagner les équipes Support & Build en tant que référent technique Modern Workplace. Gérer les incidents complexes et les problèmes récurrents (niveau 3) . Définir et appliquer les politiques de sécurité du poste de travail (GPO, Intune…). Optimiser l’outillage de gestion du parc (Intune). Superviser la distribution d’applications, mises à jour et correctifs. Assurer une veille technologique et participer aux choix d’outillage Modern Workplace. 🧰 Stack technique : Modern Workplace : Windows 11, architecture poste de travail, M365 (Exchange Online, Teams, OneDrive, SharePoint). Gestion & Mobilité : Intune, gestion Android, packaging applicatif (MSI, IntuneWin). Annuaire & Sécurité : GPO, AD, Azure AD (expertise forte). Scripting : PowerShell (avancé).
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Product Owner Data (H/F)

LeHibou
Publiée le
Méthode Agile
Product management

3 mois
400-500 €
Toulouse, Occitanie
Notre client dans le secteur Conseil et audit recherche un/une Product Owner Data H/F Description de la mission : Nous recherchons un Product Owner disponible dès que possible , pour une mission à 100% , avec un engagement a minima jusqu’à juillet (renouvelable sur l’année). Détail des activités : Requis mission: 0 = exigence faible ; 1 = exigence modérée; 2 = exigence élevée Requis (0-2) - Définir et/ou affiner la vision produit, le backlog et la roadmap en cohérence avec la vision du programme et du portefeuille : 2 - Collaborer avec l’écosystème des Product Owners afin de maintenir un backlog à jour, mature et priorisé, prêt pour le PI Planning et chaque itération du PI : 2 - Collaborer avec les architectes du train et les équipes de développement pour identifier la dette technique, évaluer ses impacts et anticiper les surcoûts : 2 - Préparer et contribuer activement à l’ensemble des cérémonies Scrum et ART : 1 - Tester et valider les User Stories afin de s’assurer qu’elles respectent les critères d’acceptation et la Definition of Done : 2 - Analyser et prioriser les anomalies et les demandes utilisateurs afin de les intégrer au backlog produit : 2 - Produire et maintenir une documentation produit claire et à jour (fonctionnelle et technique) : 1 - Préparer et diffuser les communications produit (release notes, user guides..) : 1 - Suivre l’usage, la valeur délivrée et les retours utilisateurs pour ajuster les priorités : 1
Freelance

Mission freelance
Consultant Azure Data Factory (H/F)

Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps

6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
4389 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous