L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 061 résultats.
Mission freelance
Lead Data Scientist
Signe +
Publiée le
Big Data
12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Mission freelance
Ingénieur réseau
Signe +
Publiée le
AWS Cloud
Réseaux
VPN
6 mois
400-500 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un ingénieur réseaux. Missions En tant qu’Ingénieur Réseau, vous serez en charge de : Concevoir, déployer et maintenir des architectures réseau fiables et sécurisées Administrer et optimiser les protocoles réseau (TCP/IP, BGP, OSPF, DNS, etc.) Mettre en place et maintenir des solutions VPN (site-to-site, client-to-site) Garantir la sécurité réseau (segmentation, filtrage, bonnes pratiques, conformité) Concevoir et exploiter des architectures AWS (VPC, peering, Direct Connect ) Intervenir sur des environnements multi-cloud (AWS, Azure, GCP) Analyser et diagnostiquer les incidents réseau à l’aide d’outils comme Wireshark et tcpdump Réaliser des tests de performance et de charge pour valider la robustesse des infrastructures Documenter les architectures et procédures Collaborer étroitement avec les équipes Cloud, Sécurité et DevOps
Mission freelance
Expert Microsoft Azure (H/F)
Insitoo Freelances
Publiée le
Ansible
Node.js
Terraform
2 ans
100-550 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Microsoft Azure (H/F) à Lille, France. Contexte : Nous recherchons une expertise approfondie en Microsoft Azure pour soutenir notre infrastructure cloud. Notre projet nécessite une gestion efficace des environnements Windows et une automatisation des processus via des outils d'Infrastructure as Code tels que Terraform et Ansible. Nous avons également besoin de compétences en développement, notamment en Node.js, pour créer des applications robustes et évolutives. L'utilisation de PowerShell est essentielle pour automatiser les tâches administratives et améliorer l'efficacité opérationnelle. Notre objectif est de moderniser notre infrastructure tout en garantissant la sécurité et la conformité. Nous sommes déterminés à collaborer avec des experts qui peuvent nous aider à atteindre ces objectifs. De plus, nous aurons besoin de compétences sur l'AD, entraID. Les missions attendues par le Expert Microsoft Azure (H/F) : Nous visons à atteindre les objectifs suivants : Optimisation de l'infrastructure cloud via Microsoft Azure. Automatisation des processus avec Terraform et Ansible. Développement d'applications en Node.js. Automatisation des tâches administratives avec PowerShell. Assurer la sécurité et la conformité de l'infrastructure.
Mission freelance
Engineering Manager – SRE / Reliability (H/F)
Crafteam
Publiée le
Ansible
AWS Cloud
Linux
1 an
600-650 €
Île-de-France, France
Nous recrutons pour l’un de nos clients , acteur majeur dans le secteur du paiement et des services digitaux, un Engineering Manager SRE / Reliability pour piloter la fiabilité, la performance et l’excellence technique de leur plateforme. Objectif du poste Assurer la stabilité, la performance et l’évolution de la plateforme tout en mettant en place des pratiques DevOps/SRE modernes et efficaces. Missions principales Piloter la fiabilité et l’optimisation technique de la plateforme. Définir et suivre les SLO/SLA et indicateurs clés. Superviser les processus CI/CD et l’observabilité . Coordonner les activités de support et d’administration. Promouvoir les bonnes pratiques techniques et l’innovation .
Mission freelance
Lead Data Engineer - Python/AWS/DevOps/ Big Data/ Linux / Energie (H/F)
Octopus Group
Publiée le
Apache Airflow
Apache Spark
API
6 mois
500-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans l'Energie, un Lead data Engineer. Objectifs : Etre le/la référent(e) technique de la plateforme de données - coordination technique transverse Etre référent principale sur un sujet pilote Définir, mettre en œuvre et automatiser des pipes des données et gouvernance Assurer le Run notamment la MCO, la CI / CD et la mise en production en coordination avec l’équipe référente Préparer les pipelines Data en coordination avec l’architecte et le manager Avoir un sens expérimental et de proposition dans un contexte Multi cloud est un atout majeur Missions : Etre le/la référent(e) technique de la plateforme de données Etre garant(e) du socle technique de la plateforme data et de son évolution, Définir les besoins techniques, la roadmap d’évolution du socle technique de la plateforme de données pour suivre ses changements d’échelle et garantir ses performances et sa maintenabilité, Etre mentor et référent pour les membres de l’équipe, Participer aux choix de nos partenaires. Le dev de devops : définir, mettre en œuvre et automatiser des pipes des données et gouvernance Mettre en place des projets Data Lake (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans la meilleure architecture, Définir les meilleures de façon de stocker exposer les données au sein de la plateforme selon les usages attendus, Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats, Réaliser les développements en ayant intégré les besoins et pratiques des analystes et data scientists. run et environnements Maintenir les environnements techniques et partager vos connaissances, Gérer les incidents et s’assurer de leur résolution dans une logique d’amélioration continue et d’automatisation (ex : rejeu de données), Assurer la supervision des traitements (technique et fonctionnelle).
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Mission freelance
Ingénieur sécurité
Signe +
Publiée le
AWS Cloud
CI/CD
6 mois
350-400 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Ingénieur sécurité. Secteur d'activité client final : média et audiovisuel Description détaillée : Rejoindre la Direction des Technologies Digitales du client, c'est intégrer une équipe technique au cœur des sujets mêlant la puissance et la visibilité d'un média, au monde des nouvelles technologies. Vous travaillerez sur des produits impactant directement l'audience et sur des sujets liés à la vidéo online ou encore à la haute disponibilité. Votre rôle au sein de l’équipe Vos missions ? - RUN Sécurité : Suivi et gestion de la sécurité́ du SI d’eTF1 au quotidien (suivi des alarmes et des métriques sécurités existantes, répondre aux incidents de sécurité́, etc.), - Sécurité Vidéo : Suivi et gestion de projets de mise en place d’outils de sécurité de diffusion vidéo (DRM, URL signing, green header…) - Suivi de projets sécurité : Suivi et gestion de projets de mise en place d’outils de sécurité́ (SIEM, SSO, CNAPP, Workload Protection, etc.), - Audits : Auditer régulièrement les produits eTF1 afin d’alimenter un plan de remédiation global (audit technique à effectuer ou à piloter en cas de sous-traitance), - Amélioration continue : Améliorer la sécurité́ du SI de l’entreprise en se basant sur le plan de remédiation défini (refacto on-premise, amélioration du filtrage réseau, compliance AWS, sécurisation de la chaîne CI/CD, sécurisation de la diffusion vidéo, etc.). Qui êtes-vous ? - Autonomie complète sur l’organisation de la sécurité (définition du plan de remédiation, accompagnement des équipes à la correction ou corriger soit même), - Une expérience significative dans la sécurisation et la mise en place de solutions AWS et sur la technologie Kubernetes (k8s) - Capacité de gérer des projets de mises en place d’outils de sécurité de A à Z (état de l’art, choix de solutions, PoC, configuration, intégration, mise en production), - Utilisation d’outils d’IAC (terraform, terragrunt, etc..) - Connaissance des outils de gestion de développement et de projets Atlassian (Jira, Confluence, Statuspage) - Expérience dans les tests d’intrusion et dans la cybersécurité technique - Expérience avec le cloud AWS et ces outils de sécurité - Expérience et connaissance des architectures de diffusion vidéo et streaming (formats vidéo hls/dash, CDN…)
Mission freelance
Développeur Java AWS (h/f)
emagine Consulting SARL
Publiée le
AWS Cloud
Java
3 ans
Île-de-France, France
Il s’agit d’une mission de développeur Senior JAVA AWS. La tribe est responsable de l’alimentation et l’exposition des données descriptives des assets à savoir : les établissements, les services associés et leurs informations descriptives. L’équipe API se compose d’un Product Owner, d’un TechLead, 4 développeurs et d’un QA. Elle a 2 missions : Assurer le développement de nouvelles fonctionnalités sur l’ensemble des API du périmètre. Ces API REST (4 au total) fournissent les détails descriptifs de leurs assets. Il s’agit d’applications Java/Spring hébergées sur le Cloud AWS. Assurer développement de notre nouvelle chaîne CI/CD qui amènera l’équipe vers de l’intégration continue et du déploiement continu. La CI/CD valide de manière automatique et complète l’application : tests unitaires, tests d’intégration, mutation testing, quality gates… L’équipe délivre une fois par Sprint en production. 1- Vos missions et responsabilités Au sein de cette Feature Team, en tant que développeur vous devrai : • Participer à la conception et maintenance des services du projet • Analyser et concevoir des systèmes adaptés au contexte du projet • Analyser, identifier et traiter les dysfonctionnements • Effectuer des tests unitaires • Participer aux différents rituels de l’équipe • Participer à la relecture du code • Rédaction de documentations techniques • Être force de proposition dans la résolution de problèmes, d’amélioration de la qualité du code
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Mission freelance
Architecte Data AWS (H/F)
Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset
2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Mission freelance
Expert Sécurité
DEVIK CONSULTING
Publiée le
Azure
Cybersécurité
1 an
500-680 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Sécurité, qui sera responsable de la cybersécurité des services et plateformes d’Intelligence Artificielle fournis par les équipes Data & Analytics. Il contribuera à la définition de la stratégie de cybersécurité et des politiques associées pour l’ensemble des sujets relatifs aux services et plateformes d’IA. Tâches principales Accompagner les équipes dans l’intégration de la sécurité au sein des projets Accompagner les responsables sécurité métiers sur les sujets liés à Data & Analytics Garantir la conformité continue en matière de sécurité, incluant les plans de remédiation et d’amélioration ainsi que le reporting périodique Renforcer le niveau global de sensibilisation à la sécurité des parties prenantes via des actions de formation et d’awareness Assurer la gestion des incidents de cybersécurité et contribuer à la résolution des incidents majeurs ou situations de crise Piloter la standardisation de la sécurité en définissant et en promouvant des règles et référentiels de sécurité Compétences demandées Cybersécurité : Confirmé Microsoft Azure : Confirmé Data Gouvernance : Avancé Microsoft 365 Copilot : Expert Intelligence Artificielle : Expert Langues Anglais : Courant Français : Courant Lieu : Paris
Mission freelance
Expert Devops IA h/f
Freelance.com
Publiée le
AWS Cloud
DevOps
IA Générative
6 mois
400-600 €
Saint-Denis, Île-de-France
Dans le cadre d'un programme d'Accélération Digitale, notre client recherche un Expert DevOps IA Générative pour intégrer une équipe Data & IA et contribuer à la conception, au développement et à l'industrialisation de solutions basées sur des modèles de langage (LLM) et l'IA Générative. Évaluer les cas d'usage IA Générative des métiers, collecter les besoins et proposer des solutions techniques adaptées Concevoir et développer des pipelines RAG (préparation de données textes, images, tableaux), architectures agentiques et fine-tuning de modèles LLM Mettre en place et évaluer les performances des POCs/POTs et être force de proposition sur les choix techniques Optimiser les ressources (mémoire, puissance de calcul, micro-services) pour des déploiements à l'échelle sur AWS Industrialiser et mettre en service les solutions IA, assurer le MCO des solutions déployées Accompagner les équipes Data Scientists dans l'intégration des modèles dans les applications existantes ou nouvelles Cette mission représente un enjeu stratégique clé pour la transformation digitale d'un acteur de premier plan dans le secteur des transports.
Mission freelance
DevOps / SysOps (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
DevOps
Terraform
12 mois
400-450 €
Nice, Provence-Alpes-Côte d'Azur
Contexte Rattaché au Responsable Infrastructure, le consultant accompagnera notre programme Move to Cloud en pilotant la construction de nouvelles solutions via l'Infrastructure as Code (Terraform) afin d'industrialiser et d'accélérer nos déploiements. Une présence sur site est requise, avec la possibilité de 2 jours de télétravail par semaine. Le candidat doit résider dans les Alpes-Maritimes. Un niveau d’anglais courant est indispensable afin d’assurer les escalades L3 et le support auprès de nos équipes IT internationales. Missions principales Administration et optimisation de notre infrastructure actuelle AWS (EC2, S3, FSx, DS, Storage Gateway) Déploiement et gestion d’infrastructure via Terraform Mise en place du monitoring datadog Optimisation des coûts AWS via la mise en œuvre de bonnes pratiques FinOps Automatisation des déploiements et standardisation des environnements Support N2/N3, gestion d’incidents complexes et contribution aux projets d’évolution Création et maintien d’une documentation complète (architecture, processus de déploiement, procédures opérationnelles) Partager les connaissances et les meilleures pratiques afin de favoriser une culture d’amélioration continue au sein de l’équipe Missions complémentaires Virtualisation : Administration d'environnements virtualisés VMware/Nutanix Data Protection & Identity : Gestion de l'Active Directory et d'une solution de sauvegarde
Mission freelance
Cloud Engineer AWS
KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Gitlab
IAM
6 mois
400-550 €
Essonne, France
Concevoir, déployer et maintenir des infrastructures cloud sur AWS Automatiser les déploiements via Infrastructure as Code (Terraform ou équivalent) Mettre en place et optimiser les pipelines CI/CD Assurer la sécurisation des environnements (IAM, gestion des accès, bonnes pratiques) Superviser les performances, la disponibilité et les coûts des environnements cloud Participer aux choix d’architecture et aux bonnes pratiques DevOps Collaborer avec les équipes applicatives pour accompagner la migration et l’optimisation des workloads
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5061 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois