L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 520 résultats.
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Mission freelance
Expert Salesforce Freelance (Sales / Marketing Cloud / Aircall / IA) (H/F)
LeHibou
Publiée le
Salesforce
6 mois
580-610 €
Paris, France
Description de la mission : Dans le cadre d’un projet en forte croissance, nous recherchons un(e) freelance Salesforce expérimenté(e) pour intervenir sur des sujets à la fois techniques et fonctionnels. Altaprofits est à la fois un courtier en ligne et un cabinet de conseil en gestion de patrimoine. Créée en 1999, l’entreprise est adossée au groupe Generali France depuis 5 ans. Vous évoluerez au sein d’une structure dynamique, en pleine transformation, avec une forte ambition : faire du CRM un outil central au cœur de la stratégie de l’entreprise. Nous recherchons un profil polyvalent, capable d’intervenir à la fois comme développeur et administrateur avancé sur Salesforce. Missions principales : Configuration et optimisation de Salesforce Mise en place et gestion de campagnes Marketing Cloud Développement de fonctionnalités spécifiques Intégration avec des outils tiers Support et amélioration continue des process CRM Compétences requises : Très bonne maîtrise de Salesforce Sales Cloud Expérience sur Marketing Cloud est appréciable (automation, segmentation, campagnes) Intégration de l'IA dans Aircall avec Salesforce Bonne connaissance d’Agentforce (ou outils similaires de gestion/support client) Compétences en développement (Apex, Lightning, API…) Solide expérience en administration Salesforce (configurations avancées, flows, sécurité…) Autonome, rigoureux(se), force de proposition Bon relationnel avec les équipes métiers Expérience significative sur des projets similaires
Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client
SMILE
Publiée le
Data analysis
Transformation digitale
3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Mission freelance
Senior Data Engineer (Talend)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
Microsoft SSIS
Talend
6 mois
Vélizy-Villacoublay, Île-de-France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales.
Offre d'emploi
Développeur Python (H/F)
Webnet
Publiée le
Python
34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Offre d'emploi
Data Engineer TERADATA ET DATAVIZ
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)
Deodis
Publiée le
Apache Kafka
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Mission freelance
POT9109 - Un Concepteur Développeur SAP BO / ETL Expérimenté sur Lyon
Almatek
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Sap BO
6 mois
290-320 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Concepteur Développeur SAP BO / ETL Expérimenté sur Lyon. Description Maitrise de la solution SAP BusinessObjects (Infoview, Web Intelligence, designer (IDT)- à minima version 4.3) et Need4viz - expérience d’au moins 2 ans avec des cas d’application complexes Expériences de mise en œuvre de flux ETL avec des cas d’application complexes durant 2 ans minimum- Maitrise du langage SQL, bases de données ORACLE, Sql Serveur et de la modélisation relationnelle Connaissance de l’outil ETL SAP BODS souhaité Bonnes compétences en Datavizualisation acquises par la mise en œuvre de dataviz dynamiques et intuitives. Expérience d’au moins 2 ans avec des cas d’application complexes Connaissance souhaitée de la solution 360 suite et de la solution Infoburst Connaissance souhaitée de la solution Qliksense Connaissance souhaitée de la solution POWER BI Capacité à analyser les problématiques et à proposer des actions/solutions appropriés, Esprit critique et force de proposition. Appétence pour le fonctionnel métier et le développement technique. Esprit collaboratif, Autonomie et curiosité, Rigueur Aisance et autonomie pour la réalisation de développements (en création & maintenance) de base de données, flux, fournisseur de données, dataviz, diffusions … Expériences significatives en modélisation décisionnelle, en flux d’alimentation, en création de dataviz Expériences dans le support d’utilisateur/rices Maitrise des phases de recettes techniques et fonctionnelles (tests unitaires, tests de non régression, méthodologie avec des scénarii, …) des développements réalisés et des résultats obtenus (croisement de données) Grande sensibilité à la qualité des données et aux enjeux de la sécurité autour des données, Connaissance du RGPD et des règles de sécurité applicables à la manipulation de données sensibles
Mission freelance
Développeur .NET / IA - Bordeaux
Tenth Revolution Group
Publiée le
.NET
Agent IA
6 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine
Développeur .NET Full Backend – Orientation Intelligence Artificielle - Bordeaux Démarrage ASAP. 2 jours de déplacement sur site toutes les deux semaines. Longue mission. Je recherche un Développeur .NET Full Backend passionné par l’Intelligence Artificielle pour concevoir et développer des solutions backend robustes intégrant des capacités d’IA modernes. Vous participerez à la création de services intelligents, APIs scalables et architectures cloud capables d’exploiter des modèles d’IA pour automatiser, analyser et optimiser des processus métiers. Missions : Concevoir et développer des APIs backend performantes en .NET (C#, Core) Concevoir des architectures microservices scalables Intégrer des modèles d’IA / Machine Learning / LLM dans les applications backend Développer des pipelines de données pour alimenter les modèles d’IA Mettre en place des services d’automatisation intelligente Participer à la conception technique et à l’architecture logicielle Optimiser les performances et la sécurité des services Collaborer avec les équipes produit et data Stack technique : Backend : .NET 6/7/8, C#, Core Architecture : Microservices, Clean Architecture, DDD Data : SQL Server, PostgreSQL, Redis Cloud / DevOps : Azure / AWS, Docker, CI/CD IA / Data : intégration d’API d’IA (LLM, NLP) pipelines ML traitement de données API : REST, GraphQL Messaging : RabbitMQ / Kafka Profil recherché : Profil sénior en développement backend .NET Excellente maîtrise de C# et Core Bonne connaissance des architectures backend modernes Intérêt marqué pour l’Intelligence Artificielle et les systèmes intelligents Expérience avec APIs, microservices et cloud Capacité à concevoir des systèmes évolutifs et maintenables
Offre d'emploi
Concepteur surfacique - Catia - Aéronautique - Saint Cloud F/H - Informatique industrielle (H/F)
█ █ █ █ █ █ █
Publiée le
Saint-Cloud, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
DEVELOPPEUR SENIOR DYNAMICS 365
ARGANA CONSULTING CORP LLP
Publiée le
API
Azure Data Factory
C#
6 mois
500-550 €
Paris, France
🎯 Contexte de mission Dans le cadre de la digitalisation de ses processus métier et de l’évolution de sa plateforme CRM cloud, nous recherchons un Développeur Senior Dynamics 365 capable de concevoir, développer et maintenir des solutions robustes autour de Dynamics 365 et des services Azure. La mission s’inscrit dans un environnement international, exigeant et fortement orienté innovation, avec des enjeux autour de l’automatisation, de l’intégration des systèmes et de l’optimisation des parcours utilisateurs. 🛠️ Missions principales et rôle Développer et personnaliser les composants Dynamics 365 : formulaires, workflows, plugins, JavaScript/jQuery, traitements C# et SQL Concevoir et développer des Azure Functions (HTTP triggers, TimerTriggers, files d’attente, etc.) Intégrer des contrôles PCF et configurer les différents modules Dynamics 365, notamment Sales et Customer Service Automatiser les tâches utilisateurs, les notifications et certains traitements métiers Réaliser des analyses de bugs et assurer leur résolution Étudier la faisabilité des demandes métier et proposer des solutions techniques adaptées Concevoir des architectures fonctionnelles évolutives et documentées Mettre en place et maintenir les pipelines CI/CD ainsi que les processus de release Gérer les branches de code, les déploiements et les environnements Dev, UAT et Production Administrer les ressources Azure : Functions, Queues, Topics, Data Factory, Blob Storage Assurer les intégrations avec des systèmes tiers tels que des applications web, outils marketing, backoffice ou solutions de téléphonie Superviser la production et apporter un support aux utilisateurs Assurer la coordination avec les éditeurs et partenaires techniques pour la gestion des incidents Gérer les dépôts Git et garantir la qualité des livrables 🚀 Objectifs Faire évoluer et stabiliser la plateforme Dynamics 365 Optimiser les processus métiers grâce à l’automatisation et aux intégrations Garantir la fiabilité, la performance et la maintenabilité des développements Fluidifier les échanges entre Dynamics et les systèmes tiers Sécuriser les déploiements via des pratiques CI/CD robustes Accompagner les équipes métier dans leurs besoins d’évolution et d’amélioration continue 💡 Compétences requises Excellente maîtrise de Dynamics 365 CRM Expertise en développement C#, JavaScript et SQL Bonne connaissance des modules Sales et Customer Service Maîtrise des services Azure : Functions, Storage, Data Factory, Queues, Blob Storage Expérience confirmée sur les pipelines CI/CD et la gestion des environnements Solides compétences en architecture technique et documentation Maîtrise des outils de gestion de code source Git Expérience des intégrations avec des systèmes tiers et APIs Capacité à intervenir sur des problématiques de production et de support
Mission freelance
SAP Data Migration Manager – End-to-End
Xcede Limited
Publiée le
Data management
Data Strategy
Migration
12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Mission freelance
Développeur d'appli. à forte connotation Data
Codezys
Publiée le
API
Azure
Azure DevOps Services
12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Mission freelance
Applied Scientist (IA)
Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud
6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix
OBJECTWARE
Publiée le
Hadoop
Python
Teradata
3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2520 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois