Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 863 résultats.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Microsoft Power BI

6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Freelance

Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI

Signe +
Publiée le
Agent IA

12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Freelance

Mission freelance
Expert Infrastructure as Code Terraform / OpenTofu (Niort 79)

AKERWISE
Publiée le
OpenTofu

1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de la transformation de son système d’information, un grand groupe du secteur assurantiel met en place une nouvelle squad dédiée à la création d’une plateforme de services IT en self-service . Cette plateforme a pour objectif d’industrialiser et d’automatiser la mise à disposition des environnements techniques pour les équipes Dev, Ops et DevOps, tout en renforçant la sécurité et la fiabilité des infrastructures. La squad est composée d’un Product Owner et d’experts en automatisation et Infrastructure as Code. Dans ce contexte, nous recherchons un Expert Terraform / OpenTofu pour contribuer à la construction, l’industrialisation et au déploiement interne de cette plateforme . Objectifs de la mission Concevoir et déployer un socle d’automatisation des infrastructures Industrialiser les pratiques d’Infrastructure as Code Mettre en place un modèle self-service robuste et scalable Intégrer les solutions dans l’écosystème SI existant Améliorer la performance, la sécurité et l’observabilité Prestations attendues Accompagner les parties prenantes dans la mise en œuvre des solutions d’automatisation Être force de proposition pour optimiser les infrastructures existantes Assurer le maintien en condition opérationnelle des solutions Mettre en place les dispositifs d’observabilité Assurer un support de niveau 3 sur les socles techniques Contribuer aux projets d’infrastructure Participer aux rituels agiles Livrables attendus Dossiers d’expertise technique Scripts d’automatisation Documentation et suivi des changements Réalisations techniques (mises en production) Maintien opérationnel des environnements (incluant la production)
CDI
Freelance

Offre d'emploi
Data Engineer / Analytics Engineer

VISIAN
Publiée le
Microsoft Power BI

3 ans
40k-45k €
350-440 €
Île-de-France, France
Description de la mission : Rattaché au Data Office, vous mettez en œuvre les outils et méthodes statistiques nécessaires pour organiser, synthétiser et traduire les données en leviers de décision. Vous intervenez sur l'ensemble de la chaîne de valeur, de la gestion des flux ETL à la publication des indicateurs dans les outils de Dataviz. Missions principales : Gestion des flux de données : Piloter et maintenir les flux ETL via Dataiku et Databricks à partir du Data Lake. Analyse & Exploration : Fournir un appui analytique pour des explorations complexes. Créer des algorithmes de recherche de données pour identifier les informations utiles. Industrialisation : Transformer les analyses exploratoires en procédés industrialisés pour les données stratégiques. Pilotage de la performance : Définir et mettre en œuvre les indicateurs clés de performance (KPI) et les indicateurs de qualité de données (DQI). Architecture & Modélisation : Gérer l'administration, la modélisation et l'architecture des gisements de données. Garantir la cohérence et la performance des bases de données existantes. Aide à la décision : Synthétiser les informations complexes pour faciliter les arbitrages de la direction. Profil recherché : Expérience : Profil confirmé avec une solide maîtrise de l'analyse statistique et de l'ingénierie de données. Expertise Technique : Maîtrise des outils ETL : Dataiku , Databricks . Expérience sur les environnements Data Lake . Compétences en outils de Dataviz . Solides connaissances en modélisation et architecture de données. Soft Skills : Esprit d'analyse rigoureux, capacité de synthèse, autonomie et force de proposition. Livrables attendus : Définition précise des KPI. Établissement des règles de calcul et de gestion. Documentation des flux et des modèles de données.
Freelance

Mission freelance
Data Architect Orion

Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance

9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Freelance
CDI

Offre d'emploi
Architecte Data GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
CDI
Freelance

Offre d'emploi
Architecte Data Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Freelance
CDI

Offre d'emploi
Data Scientist Senior Dataiku – Banque – GCP – GenAI

OGESSI
Publiée le
Dataiku
Google Cloud Platform (GCP)
IA Générative

1 an
40k-54k €
400-630 €
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du renforcement d’un département Data & IA au sein d’un grand groupe bancaire, nous recherchons un Data Scientist expérimenté pour intervenir sur des projets d’IA générative et prédictive construits autour de la plateforme Dataiku. Missions Développement de cas d’usage IA générative et machine learning Conception et industrialisation de workflows sous Dataiku Préparation de données, feature engineering, entraînement de modèles Déploiement et suivi de modèles en production Intégration avec l’environnement GCP (BigQuery, GCS, IAM) Collaboration avec data engineers, architectes et équipes métiers Participation à l’amélioration de la gouvernance data Compétences requises Expertise Dataiku (conception, déploiement, industrialisation) Python data science (pandas, numpy, scikit-learn, XGBoost) SQL avancé Environnement Google Cloud Platform (BigQuery idéalement) Expérience en machine learning en production Connaissance MLOps / monitoring modèles Compétences appréciées Expérience IA générative (LLM, RAG, intégration API) Contexte bancaire Zeenea, Power BI ou Alteryx Mission longue avec forte visibilité dans un environnement data structuré.
Freelance

Mission freelance
ACHETEUR Domaine Market Data/

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
Data Manager Lead – GO Data

ALLEGIS GROUP
Publiée le
Data governance

1 an
Paris, France
GO Data renforce son pôle Data Management afin d’accélérer la structuration, la gouvernance et l’efficacité des pratiques Data, notamment dans le cadre du programme BI & Analytics Strengthening (BigUp) et du déploiement des standards Data by Design. Nous recherchons un(e) Data Manager Lead pour piloter les initiatives clés, accompagner les Data Owners et Data Stewards, et garantir une gouvernance Data robuste, cohérente et alignée avec la stratégie Groupe. MISSIONS : 🔹 Pilotage du programme BigUp (BI & Analytics strengthening) Piloter le projet BigUp incluant : rationalisation des périmètres BI, standardisation des pratiques, amélioration des modèles de delivery, opérationnalisation du nouvel operating model. Coordonner les parties prenantes métiers, IT, data et transformation. 🔹 Gouvernance BI & Analytics en mode BAU Manager la gouvernance opérationnelle et maintenir les frameworks en place. Produire et mettre à jour les artefacts de gouvernance (inventaires, reporting, suivis). 🔹 Déploiement et application des Standards Data Renforcer la stratégie Data en garantissant l’application des standards : Data Governance Policy Data Quality Framework Data By Design Framework Documentation Data (modèles, glossaires, dictionnaires…). Construire et maintenir des modèles de données robustes et cohérents. 🔹 Data by Design & accompagnement projets Participer concrètement au processus Data by Design avec Data Architects, DPO et équipes projets. S’assurer que les exigences Data (qualité, sécurité, documentation, gouvernance) sont intégrées dès la conception. 🔹 Support aux Business Data Owners & Data Stewards Agir en Data Ambassador pour les accompagner dans la mise en œuvre des frameworks de gouvernance. Aider les domaines métiers (dont HR Data Domain) à monter en maturité.
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance

Mission freelance
Un Expert Dynatrace sur Nanterre

Almatek
Publiée le
Big Data
Dynatrace
Hadoop

6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
2863 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous