Trouvez votre prochaine offre d’emploi ou de mission freelance okta
Votre recherche renvoie 797 résultats.
Offre d'emploi
Data Scientist Confirmé H/F
█ █ █ █ █ █ █
Publiée le
Python
SQL
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
WorldWide People
Publiée le
Snowflake
3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Offre d'emploi
Chargé (e) d'études Data SAS/SQL/PYTHON
K-Lagan
Publiée le
Python
SAS
SQL
1 an
35k-40k €
350-420 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet data faisait vraiment la différence dans votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, où la donnée est au cœur des décisions métier . Aujourd’hui, nous recherchons un·e Chargé·e d’Études Data / Data Analyst (F/H) pour rejoindre l’un de nos clients du secteur Assurance , basé à Niort . 🔍 Contexte Vous interviendrez sur des sujets data stratégiques, avec pour objectif d’exploiter et valoriser les données afin d’accompagner la prise de décision et optimiser les processus métier. 🎯 Missions Analyser et exploiter des volumes de données importants Développer et optimiser des requêtes SQL Réaliser des traitements et analyses statistiques (SAS / Python) Produire des études et reportings à destination des métiers Garantir la qualité, cohérence et fiabilité des données Participer à l’amélioration continue des outils et processus data
Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours
Almatek
Publiée le
Python
6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Mission freelance
DATA ARCHITECTE
Coriom Conseil
Publiée le
Collibra
KPI
Modélisation
12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Mission freelance
ETL / Data Streaming Project Manager
Comet
Publiée le
Apache Kafka
API
CRM
6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Offre d'emploi
Data Engineer / Data Ops (H/F)
QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure
10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
Offre d'emploi
Data ingénieur H/F
CONSORT GROUP
Publiée le
40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Offre d'emploi
Consultant en gouvernance data - SI assurance H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Viveris vous propose un poste de Consultant SI Data, avec une expérience confirmée dans le pilotage de projets transverses sur DataGalaxy ainsi que sur les aspects réglementaires. Dans le cadre d'un projet de gouvernance des données, notre client, acteur du secteur assurantiel, déploie progressivement la solution auprès des différentes équipes métiers et IT. En tant qu'expert DataGalaxy, vous accompagnez les équipes à chaque étape du déploiement et garantissez l'appropriation de la solution ainsi que la mise en oeuvre des premiers cas d'usage. Responsabilités : Piloter le déploiement de DataGalaxy dans le respect de la gouvernance et du planning ; Accompagner et former les équipes métier et IT à un usage avancé de la solution ;Concevoir et implémenter des cas d'usage structurants au sein du Data Catalog ; Paramétrer et optimiser l'intégration de DataGalaxy dans l'écosystème data ; Apporter une expertise en gouvernance des données et diffuser les bonnes pratiques.
Offre d'emploi
Data Scientist / Machine Learning Engineer Confirmé H/F
DAVRICOURT
Publiée le
40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist / Machine Learning Engineer Confirmé pour l'un de nos clients du secteur bancaire. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir, développer et évaluer des modèles de machine learning (supervisés, XAI) ; - Mettre en production les modèles via des pipelines MLOps (CI/CD, APIs, monitoring) ; - Développer des solutions basées sur les LLM et la GenAI (RAG, fine-tuning, LangChain) ; - Assurer le suivi des performances et l'amélioration continue des modèles en production.
Mission freelance
Consultant Dataviz (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
Python
Tableau software
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant Dataviz (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant Dataviz (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
797 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois