Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 337 résultats.
Freelance

Mission freelance
Business Analyst Confirmé – Automatisation & Migration Webdriver

CAT-AMANIA
Publiée le
Analyse
API
Business Analyst

6 mois
380-590 €
Saint-Pierre-des-Corps, Centre-Val de Loire
Dans le cadre de l’obsolescence de la technologie actuelle, recherche d'un Business Analyst confirmé pour accompagner la squad automatisation dans la définition et la mise en œuvre de la feuille de route, avec un focus sur la migration des robots vers la technologie Webdriver . Vous interviendrez au cœur d’un environnement Agile, en lien étroit avec les équipes métiers et techniques. Au sein de la squad, vous serez responsable de : Être l’interlocuteur privilégié sur les processus métier et les fonctionnalités Recueillir, analyser et formaliser les besoins métiers Alimenter et prioriser le backlog produit Participer aux ateliers d’affinage et à l’évaluation de la complexité Rédiger les user stories et assurer leur complétude Modéliser les processus, données et flux (API, webservices) Rédiger les spécifications fonctionnelles et contribuer aux spécifications techniques Participer à la conception des solutions en lien avec les équipes techniques Accompagner les équipes de développement lors de l’implémentation Contribuer aux phases de tests, validation et support Participer au déploiement des nouvelles fonctionnalités avec le Product Owner Contribuer à la vie de l’équipe (rituels Agile, partage de bonnes pratiques, onboarding)
Freelance

Mission freelance
Cloud Engineer Azure Resource Tagging mission

Gentis Recruitment SAS
Publiée le
Azure
CI/CD
IAC

9 mois
400-550 €
Luxembourg
Tagging manuel des ressources Azure liées aux applications métiers, aux services applicatifs et à la couche d’intégration Définition des politiques de tagging Azure Création de templates et de pipelines permettant aux équipes d’utiliser un tagging prédéfini conforme aux politiques Mise en application (enforcement) des politiques de tagging Exigences essentielles et expérience : Minimum 3 ans d’expérience en ingénierie cloud ou en infrastructure Certification Microsoft Azure Administrator (obligatoire) Certification Microsoft Certified: DevOps Engineer Expert (obligatoire) Expérience solide dans : Le tagging Azure et les politiques de tagging Azure L’Infrastructure as Code (IaC) avec Bicep, PowerShell, Azure CLI et les templates ARM La création et la maintenance de pipelines Azure DevOps pour le CI/CD et l’orchestration La conception et la mise en œuvre de pipelines de release avec templates YAML, groupes de variables, Azure App Configuration, gates de validation et processus d’approbation Le déploiement et la gestion des services Azure : machines virtuelles, Web Apps, APIs, Functions, Logic Apps, Event Grid, Service Bus La documentation et le suivi des tâches dans Azure DevOps et ServiceNow
Freelance
CDD

Offre d'emploi
Ingénieur IA Générative / MLOps (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
50k-60k €
470-500 €
Île-de-France, France
Dans le cadre du développement de ses capacités en Intelligence Artificielle , notre client recherche un Ingénieur IA Générative / MLOps . Vous interviendrez sur l’ensemble du cycle de vie des solutions IA, de l’expérimentation à la mise en production, avec un focus sur les architectures GenAI (RAG, agents, fine-tuning) . Vos missions Implémenter et déployer des modèles d’IA (Machine Learning & IA Générative) Industrialiser les solutions via des pratiques MLOps Mettre en place le monitoring, la supervision et la maintenance (MCO) des modèles Concevoir des pipelines de données et d’ingestion Optimiser les performances (coûts, temps de calcul, scalabilité) Évaluer des Proof of Concept (PoC) et recommander les meilleures architectures Mettre en œuvre des solutions RAG (Retrieval-Augmented Generation) Travailler sur des approches fine-tuning et prompt engineering Accompagner les équipes sur les bonnes pratiques IA et industrialisation Livrables attendus Études et cadrages de cas d’usage (4 à 6 par an) Développement de pipelines d’ingestion (15 à 20 par an) Déploiement de modèles en production (15 à 20 par an) Maintenance et optimisation des solutions IA (3 à 5 par an)
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Architecte SCCM / Modern Workplace

LINKWAY
Publiée le
Intune
SCCM

12 mois
600-620 €
Île-de-France, France
Dans le cadre du renforcement de ses équipes, notre client recherche un Architecte SCCM / Modern Workplace expérimenté pour intervenir sur des environnements poste de travail à grande échelle. Vous intégrerez une équipe en charge des environnements Devices & Systèmes sur un parc important, dans un contexte mêlant RUN avancé et projets de transformation autour du Modern Workplace. Missions principales Apporter une expertise technique de haut niveau sur les environnements poste de travail Intervenir sur des sujets SCCM (MECM) / Intune (configuration, packaging, déploiement, conformité) Concevoir et mettre en œuvre des solutions d’ automatisation via Powershell / scripting Participer à la structuration des environnements (process, architecture, bonnes pratiques) Gérer des sujets RUN N3 complexes (incidents, problèmes, amélioration continue) Contribuer aux projets Modern Workplace (VDI, sécurité, évolution des outils Microsoft…) Mettre en place des solutions de reporting et supervision Assurer la documentation et le transfert de compétences
Freelance

Mission freelance
Data Business Analyst (H/F)

Insitoo Freelances
Publiée le
Confluence
JIRA
Python

2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI
CDD

Offre d'emploi
LEAD DEV technico-fonctionnel expert Retail SAP S/4 HANA & CAR

IT CONSULTANTS
Publiée le
SAP ABAP
SAP S/4HANA

8 mois
Île-de-France, France
Contexte de la mission : Dans le cadre de la stabilisation du système SAP S/4HANA, nous recherchons un Lead DEV technico-fonctionnel expert SAP S/4 HANA disposant d’une expertise affirmée sur les modules SAP. A ce titre vous intégrez le train Safe SAP pour l’Equipement de la Maison Vos responsabilités : Au niveau technico/fonctionnel : • Aligner les développements avec les priorités Business o Planifier les corrections techniques en phase avec les produits (performance, revue de code, optimisation, bug technique) o Contribution à la « conformité » par la mise en place de pattern avec les produits tiers o S’assurer avec le consultant autorisation que les règles de SOD et de prévention de risques de sécurité sont bien respectées • Accompagner la Core Team o Accompagnement du release manager pour automatiser les livraisons (OT, batch, boomi etc.) et la mise en place de Cloud ALM o Garant de la tenue du backlog des OT o Garant des interventions en Production des développeurs et des paramétrages effectués par les consultants. o Montée de version/Patches : Cadrage, analyse d’impact, revue de code des développements impactés, support Oxya o Etude et accompagnement dans les montées de version majeur SAP et le move to Cloud (Rise), avec maitrise des bonnes pratiques SAP d'extensibilité et du modèle Clean Core (on-stack vs side-by-side BTP). o Connaissance de la BTP et des extensions side-by-side (RAP, CAP, UI5, Integration Suite) o Coordonner la migration des interfaces vers les APIs S/4HANA Cloud (OData V4, Event Mesh) • Assister les produits fonctionnels o Dépendances/Adhérences inter-produits (OT, process, flux/interface) o Coordination avec les architectes ou la DA (Design Authority) o Best practices, performances, optimisations Au niveau de l’animation et support des équipes • Animer la communauté des développeurs SAP, poser le cadre de bonnes pratiques et le mettre en œuvre. o Parcourir les sujets en cours et aider à réduire les blocages de chaque développeur o Réaliser des échanges de connaissance, rappel de best practices, démo ou autre présentation technique. o Définir et suivre le plan d’action à mettre en œuvre pour donner suite aux résultats de la revue de code. • Support technique aux équipes opérationnelles dans le train NOE, les projets, et les évolutions au sens large en intégrant les différentes comitologies du programme. o Assistance aux équipes produits (renfort technique, performance, aide au développement) o Support sur les MEP : analyse des dépendances (RACI avec le release manager, au global sur les dépendances), support avec l’infogérant pre-MEP et pendant les MEP, support des autres produits o Optimiser les performances ABAP/Fiori (programmes, tuiles, process internes) o Enrichissement par l’étude d’autres outils SAP en coordination avec l’architecte SAP : Personas, Cloud ALM (charm), Tricentis, BTP, Integration Suite, Archivage Au niveau de la Réalisation • Développement de nouvelles fonctionnalités métiers o Ajout/Modification de tuiles standards ou spécifiques o Ajout/modification de fonctionnalités ABAP/Java o Elaboration/Modification d’interfaces (API, idocs, WebServices, OData) • Analyses technico-fonctionnelles de l’état de santé de la plateforme o Analyse des dumps SAP (st22) o Analyse des mises à jour SAP (sm13) o Evaluation du capacitaire (analyse de l’utilisation de la mémoire HANA) o Suivi et Analyse de l’Advanced Sizing, du DVM Check et des EWA en coordination avec le lead Basis Vos atouts pour réussir : • Expérience confirmée (au moins 10 ans) en tant que Lead Dév expert Retail SAP S4/HANA & CAR • Expert ABAP/FIORI/BTP • Capacité à travailler en environnement multi-projets et à coordonner les équipes techniques et fonctionnelles. • Excellentes compétences en communication et documentation. • Resistance aux pressions externes • Votre vision de bout, votre sens de l’organisation sont des atouts de réussite pour ce poste. Français courant indispensable. Modalités Mission longue Démarrage: Dès que possible Télétravail 2 jours par semaine Mission dans le 92 avec quelques déplacements dans le 91
Freelance

Mission freelance
Analytic Engineer / Expert Qlik Finance & HR

VISEO
Publiée le
DBT
Qlik
Snowflake

12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
CDI
Freelance

Offre d'emploi
Développeur C# (H/F)

Aleysia
Publiée le
.NET
Azure DevOps
C#

12 mois
Lyon, Auvergne-Rhône-Alpes
Si coder est pour toi une passion plus qu'une compétence rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’ Expert .Net ! 🚀 Ton challenge si tu l’acceptes : Concevoir et développer des solutions avec un code performant et documenté Collaborer à la conception de l'architecture d'un projet informatique Gérer la maintenance corrective et évolutive de l'application Participer activement à l'amélioration continue interne Implémenter des tests unitaires et d’intégration pour assurer la qualité du code Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Freelance

Mission freelance
Consultant(e) réseau sécurité - Expert(e) et certifié(e) TUFIN AURORA

PROPULSE IT
Publiée le
Tufin

24 mois
350-700 €
Paris, France
Notre client vient de renouveler les machines Tufin obsolètes et souhaite configurer un module supplémentaire : Secure Change et l'interfacer avec son ITSM (ServiceNOW). Il souhaite également avoir des reporting disponibles dans son outil web PowerBi basé sur l'API Tufin. (exports de préférence en powershell). L'application Tufin est configurée en on-premise sur des appliances Tufin (T-820-worker nodes et T1220-data node) en Aurora. L'objectif est également un accompagnement sur la mise en place de la haute disponibilité et l'ajout du périmètre AWS. Prestation attendue Dans le cadre de cette prestation, le prestataire aura pour mission de : - Etablir les workflows avec Safran pour les demandes suivantes : • ouvertures/fermetures de flux réseaux • mises à jour de groupes de sécurités sur les équipements • vérifications de flux réseaux • extract de règles pour une application/service donné - Interfacer ces workflows avec l'ITSM du groupe (ServiceNOW) et le module SecureChange de Tufin. - Mettre à disposition des exports basés sur l'API Tufin. Le but est de construire des KPI (nombre de demande par jour/semaine, nombre de règles modifiées, nombre d'objets, nombres d'objets dupliqués) et construire ces rapports PowerBI basés sur ces exports. - Mettre en place la migration du RUN Tufin vers une équipe dédiée Run N-1 et N-2 actuellement supporté par les experts N-3. Rédaction de document d'exploitation, arbre de décision, aide à la rédaction d'offres de service telle que : création de compte, demande d'export, etc. - Supporter notre client dans l'exploitation du module SecureTrack en proposant des améliorations et/ou des best practices de l'éditeur. - Support à l'ajout des équipements réseaux AWS sur Tufin. Livrables • Les workflows (de préférence sous MS visio) • Les documents demandés par l'équipe SNOW pour l'interfaçage des 2 applications (contenant le nom des champs des formulaires SecureChange par exemple) de type contrat d'interface • Les guides d'exploitations de SecureChange et SecureTrack destinés à l'équipe de RUN N-1 et N-2 sous format word et pdf. • Les exports (dont le/les script/scripts) et les rapports pour les KPI sous PowerBI • Support de formation à destination des référents Réseaux expert N-1/2/3 (sous PPT) Tous les documents (sauf contre-indication) devront être rédigés en Français ET en Anglais. Les prestations ci-dessus devront être réalisées à partir du 01/03/2024 et se terminer au plus tard le 30/09/2024.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Project Management Officer (PMO)

Deodis
Publiée le
Microsoft Excel
SQL

9 mois
220-350 €
Nantes, Pays de la Loire
Planification et coordination des projets Élaborer et suivre les plannings projets Assurer la cohérence entre les différents jalons, livrables et dépendances Coordonner les parties prenantes internes et externes Suivi de la performance et reporting Mettre en place des indicateurs de suivi (KPI, tableaux de bord) Suivre l'avancement, les risques, les coûts et les délais Produire des reportings réguliers pour la direction ou les sponsors Gestion documentaire et méthodologique Structurer et maintenir les référentiels projets (modèles, procédures, outils) Veiller à l'application des bonnes pratiques (ex. : méthodologie Agile, cycle en V, Prince2)
CDI

Offre d'emploi
ADMINISTRATEUR SYSTEMES WINDOWS/LINUX ENVIRONNEMENTS HYBRIDES CLOUD (H/F)

GROUPE ALLIANCE
Publiée le
Ansible
CI/CD
Grafana

35k-45k €
Paris, France
ACCROCHE SI TU SAIS QUE LA STABILITÉ D’UN SI REPOSE SUR DES FONDATIONS SOLIDES, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Administrer et faire évoluer des infrastructures systèmes critiques Garantir la disponibilité, la performance et la sécurité des environnements IT Relever des défis techniques dans des environnements complexes et exigeants Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi Au sein d’un acteur majeur du secteur de l' immobilier, tu participeras à l' installation, l' administration, l' exploitation des moyens informatiques ainsi que l' industrialisation des deploiements Cloud tout en maintenant l' excellence opérationnelle sur le parc on premise. : Administration des environnements Windows et Linux, tu réaliseras Déploiement et configuration des serveurs et services associés, tu piloteras Supervision des systèmes et gestion des incidents, tu assureras Optimisation des performances et gestion des capacités, tu coordonneras Mise en œuvre des bonnes pratiques de sécurité et de sauvegarde, tu garantiras Participation aux projets d’évolution et de modernisation des infrastructures, tu contribueras Veille technologique et amélioration continue, tu impulseras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de 5 ans minimum en administration ou ingénierie systèmes Maîtrise des environnements et des solutions de virtualisation : Windows , Linux, Cloud Azure Compétences en scripting : Terraform, Ansible, CI/CD, Grafana, PostGreSQL, SQL Server, Wallix Connaissance des environnements cloud (AWS, Azure, GCP) appréciée AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Rigoureux(se) : tu assures la stabilité et la fiabilité des systèmes Autonome : tu gères ton périmètre avec méthode Analytique : tu sais diagnostiquer rapidement les incidents Méthodique : tu documentes et structures chaque action Communicant(e) : tu échanges efficacement avec les équipes IT Pragmatique : tu proposes des solutions adaptées aux contraintes terrain Curieux(se) : tu suis les évolutions technologiques systèmes et cloud Orienté(e) service : tu garantis la continuité et la qualité des services IT
Freelance

Mission freelance
Ingénieur d'exploitation Web Methods 400 e par j

BI SOLUTIONS
Publiée le
LUnix
WebMethods

2 ans
240-400 €
Île-de-France, France
Ingénieur d'exploitation Web Methods 400 e par j La gestion du socle webMethods (BPM/Task Engine) en tant que tel, avec le leader du socle et en forte relation avec l'équipe projet socle applicatif, celle des modélisateurs mais aussi les équipes assurant les interactions avec cette infrastructure (dématérialisation, signature électronique)  Qualification technique de patchs, de versions évolutives (installation, réalisation de tests de charge, de tests de non régression, rédaction de feuilles de route et mises en production).  Résolution d'incidents, gestion du MCO (analyse, suivi sous JIR@, éradication en coopération avec l'équipe support projet / l'éditeur et notre infogérant ), optimisation des performances (tuning java...) 400 e par jour
CDI

Offre d'emploi
Administrateur·trice SGBD Oracle Exadata

Blue Soft
Publiée le

55k-70k €
Paris, France
Pour le compte de l'un de nos clients , nous recherchons un·e Administrateur·trice base de données ! En tant que Administrateur·trice base de données, vous intégrerez une équipe de mise en oeuvre technique SGBD Open. Cette équipe a en charge la fourniture et maintien en condition opérationnelle des moteurs et instances de base de données sur monde Open. Vos missions seront : - Mise en oeuvre technique des SGBD Oracle/ Exadata /Exadata Cloud Customer - Mise en place des procédures d'exploitation des bases de données (surveillance, sauvegarde), patch management, audits - Migration de bases Oracle vers Exadata/Exadata Cloud Customer - Support N3 - Industrialisation des procédures, validations des nouvelles versions produits - Gestion de la relation avec les éditeurs Environnement technique : - Bases de Données Oracle / Exadata/Exadata Cloud Customer - Automatisation via Scripting UNIX, Perl, Python et SQL - Dataguard, ASM et RAC Anglais indispensable ! Astreintes et HNO possibles.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2337 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous