L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 997 résultats.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Data Scientist IA
Tritux France
Publiée le
Algorithmique
Keras
Large Language Model (LLM)
3 ans
350-400 €
Île-de-France, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Mission freelance
Data Engineer / Data Platform Engineer (H/F)
INFOGENE
Publiée le
Data Engineering
Finance
Python
6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Offre d'emploi
Consultant Data & Flux (H/F)
WINSIDE Technology
Publiée le
Apache Airflow
AWS Cloud
Snowflake
33k-65k €
Lille, Hauts-de-France
Contexte Dans le cadre de la structuration de leur plateforme data, notre client recherche plusieurs profils Data et Flux pour intervenir sur la mise en place et l’optimisation de nos systèmes de gestion de données. Leur environnement technique s’appuie principalement sur : Snowflake (cœur de la plateforme data) AWS (EventBridge, Lambda) Airflow (orchestration des flux) Nous recrutons 4 profils avec des niveaux allant de très junior (sortie d’école) à très sénior (expert / architecte) . Vos missions 🔹 Volet Data Mise en place et structuration des données d’entreprise Contribution à la qualité des données (data quality) Modélisation et gestion des données dans Snowflake Participation aux bonnes pratiques Data (gouvernance, structuration) 🔹 Volet Flux / Data Engineering Développement et gestion des flux de données Mise en place des pipelines (ETL / ELT) Orchestration avec Airflow Intégration et gestion des événements via AWS EventBridge Développement serverless avec AWS Lambda 👉 Environnement orienté industrialisation des flux et qualité de la donnée (le décisionnel n’est pas la priorité à ce stade). INFORMATIONS COMPLEMENTAIRES Mission longue (minimum 1 an) Démarrage : 2 postes en juin 2 postes en septembre Localisation : Lille (59)
Offre d'emploi
Chef de projet Data Intégration (H/F)
TechOps SAS
Publiée le
API
Azure
Confluence
12 mois
40k-56k €
450-600 €
Paris, France
Nous recherchons un Chef de Projet Data Intégration pour intervenir sur des projets à fort enjeu autour des échanges de données et des API. Vous serez au cœur des interactions entre les équipes métiers et techniques, avec pour mission de cadrer les besoins, piloter les projets et assurer la bonne mise en œuvre des solutions d’intégration. Vous évoluerez dans un environnement structuré, avec des équipes organisées et des processus établis, facilitant le delivery et la qualité des projets. Vous interviendrez sur la mise en place et le suivi de flux de données dans un environnement cloud, en veillant à la cohérence, à la performance et à la fiabilité du système d’information. Vous jouerez également un rôle clé dans la coordination transverse et le suivi des livrables, dans une logique d’amélioration continue.
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Python
SQL
Terraform
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Tech Lead Python
Webnet
Publiée le
Python
50k-55k €
Lille, Hauts-de-France
📍 Tourcoing ⏱ Démarrage : ASAP 💰 Rémunération : 50–55 K€ brut annuel Contexte Dans le cadre d’un vaste programme de transformation numérique, un acteur majeur du secteur public à fort impact territorial modernise son système d’information : refonte de l’ERP, évolution du SIRH, structuration de la plateforme data, ouverture du SI via des APIs et services découplés. Votre rôle : En tant que Tech Lead Python, vous êtes le référent technique des équipes de développement. Vous intervenez à la fois sur la conception des solutions , les choix technologiques , la qualité du code et la montée en compétences des développeurs . Missions principales : Piloter les choix techniques (langages, frameworks, patterns, outillage) Concevoir et valider des architectures applicatives modernes (APIs, microservices, services découplés) Encadrer le développement backend et frontend Garantir la qualité du code , la performance et la sécurité des applications Mettre en œuvre les bonnes pratiques DevSecOps Participer aux arbitrages techniques structurants avec les chefs de projet Rédiger et maintenir la documentation technique Accompagner et former les développeurs (mentorat, revues de code) Collaborer avec des partenaires externes et assurer la cohérence globale du SI Environnement technique : Backend : Python Frontend : Angular, JavaScript / TypeScript Architecture : APIs REST, microservices, SI modulaire Conteneurisation & orchestration : Docker, K3s Sécurité : sécurité applicative, gestion des flux, bonnes pratiques RGPD Méthodologies : DevSecOps, normes et standards d’architecture Documentation & gouvernance : référentiels type TOGAF (appréciés)
Mission freelance
consultant data migration SAP
Hanson Regan Limited
Publiée le
Migration
SAP
6 mois
650-800 €
Paris, France
Hanson Regan recherche un consultant data migration SAP pour une mission de 6 mois renouvelable à Paris. Vous participerez aux activités de migration de données au sein d'un projet SAP, en vous concentrant exclusivement sur les modules PP et QM. Vos missions : • Identification et analyse des données à migrer (articles, nomenclatures, gammes, données qualité) • Définition et modélisation des règles de transformation • Préparation et chargement des données (LSMW / Migration Cockpit) • Contrôle qualité des données et gestion des anomalies • Participation aux phases de test (SIT/UAT) et aux répétitions de migration (basculement) 3 jours de présence par semaine sur site au sud de Paris, 2 jours en télétravail Conformément aux exigences du client, les freelances doivent pouvoir travailler via leur propre entreprise. Nous ne pouvons malheureusement pas accepter les candidatures via des sociétés de portage salarial pour ce poste. Veuillez nous contacter au plus vite si vous êtes intéressé ou si vous pouvez recommander une personne correspondant à ce besoin.
Mission freelance
Expert en Migration de Données H/F
SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration
3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Offre d'emploi
Tech Lead Data xDI/Python/Snowflake/GCP & CI/CD
OBJECTWARE
Publiée le
CI/CD
Google Cloud Platform (GCP)
Microsoft SQL Server
3 ans
40k-85k €
400-650 €
Île-de-France, France
Responsabilités principales : Pilotage Technique : - Définir et faire respecter les bonnes pratiques de développements, de versioning et d'industrialisation des flux data - Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements - Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI. - Contribuer à l'amélioration continue des performances et de la stabilité des pipelines Conception et industrialisation : - Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT) - Mettre en œuvre les solutions d'orchestration et d'automatisation - Participer à la migration des flux SAS vers des solutions modernes (ex : Snowflake) - Veiller à la documentation, à la supervision et au monitoring des traitements Encadrement et accompagnement : - Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence - Promouvoir les bonnes pratiques DataOps (CI/CD, test, observabilité, monitoring) - Faciliter les échanges entre les équipes data, architecture, sécurité et métier Gouvernance et qualité : - Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données - Collaborer avec le Data Quality Officer sur les sujets de contrôle d'alerting - Participer à la mise en place de mécanismes de data lineage et de gestion des metadonnées Expérience : Expérience sur des architectures cloud data (idéalement GCP) Expérience confirmée dans l'industrialisation et la mise en production des pipelines data Langages et outils : - Obligatoires : Python, SQL, Spring Batch - Data platform : GCP, Snowflake (bonne connaissance apprécié) - ETL/ELT : XDI - CI/CD & Infra : Gitlab, Docker, Terraform, Kubernetes Architectures : - Architecture Data Moderne (Data Lake/House, Data Mesh, ELT Cloud etc) - Performance et optimisation des flux - Sécurité, gouvernance et qualité des données - Supervision et observabilité
Mission freelance
Data Engineer / Software Engineer Data (H/F)
Nicholson SAS
Publiée le
Azure
Databricks
Machine Learning
7 mois
Niort, Nouvelle-Aquitaine
Le contexte Nous recherchons un Data Engineer (ou Software Engineer avec une forte spécialisation Data) pour renforcer une équipe agile en charge de l'industrialisation de projets Data et ML. La mission se déroule dans un environnement technique Azure et s'appuie sur une méthodologie SAFe . Vos missions principales Votre rôle consiste à transformer des prototypes en solutions industrielles fiables et performantes. Vous intervenez sur : Pipelines de données : Conception et développement de flux Batch sous Azure Databricks . Vous gérez l'utilisation de PySpark, Delta Lake et MLFlow. Optimisation technique : Travail sur la performance des traitements (partitionnement, gestion mémoire, exploitation GPU) et mise en place du monitoring (reprise d'erreur, traçabilité). Développement logiciel : Création de packages Python réutilisables. Vous garantissez la qualité via des tests unitaires, de la documentation et l'intégration dans les pipelines CI/CD. API & Services : Développement d'API via Azure Functions ou Azure Container Apps. Collaboration métier : Travail quotidien avec les Data Scientists pour industrialiser leurs modèles (notamment sur des algorithmes de bagging et boosting). Cycle de vie projet : Participation complète de l'étude de faisabilité à la mise en production, incluant le suivi en RUN et l'amélioration continue. Détails de la mission Localisation : Niort (présence obligatoire sur site 3 jours par semaine). Démarrage : 04/05/2026. Durée : Jusqu'au 31/12/2026 (visibilité fin d'année). Tarif : Selon profil et expérience.
Offre d'emploi
Data Scientist
VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch
1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Offre d'emploi
Chargé d’Affaires Data Centers CVC
AGH CONSULTING
Publiée le
Finance
Planification
6 mois
Massy, Île-de-France
Contexte Dans le cadre du développement d’activités liées aux Data Centers , nous recherchons un(e) Chargé(e) d’Affaires CVC pour piloter des projets techniques en environnement critique. Vous interviendrez sur des installations à forte exigence de performance (refroidissement, climatisation, continuité de service), en lien direct avec les équipes techniques et les clients. Missions Assurer la préparation, le pilotage et le suivi technique des projets CVC Planifier les interventions en coordination avec le client Participer à la conception technique des solutions (dimensionnement, optimisation) Piloter la rentabilité des affaires (suivi budgétaire, marges) Contribuer au développement du chiffre d’affaires Coordonner et encadrer les équipes opérationnelles Assurer le reporting d’activité auprès de la direction / conduite de travaux Veiller au respect des normes de sécurité et de qualité sur les chantiers
Offre d'emploi
Senior Technical Business Analyst – Market Data to Data & Analytics Platform Migration (Trading) – Zurich Area / Remote
Avanda
Publiée le
Zurich, Suisse
Avanda is a Swiss professional services consultancy. We are currently looking for a Senior Technical Business Analyst to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028). Remote work accepted with once every 4-6 weeks onsite. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the Technical Business Analyst, you will support the Project Manager and workstream leads on the technical and business-related topics across the migration, with a focus on reconciliation, sign-off, requirements engineering, and unblocking the technical teams when business or risk context is needed. YOUR RESPONSIBILITIES Support reconciliation topics between legacy market data sources and the new platform, and bring them to sign-off with business and risk stakeholders Gather and clarify requirements from business and risk users, and translate them for the federated technical teams Support business users on data issues and act as the bridge to the technical teams Unblock technical teams on open business or risk questions Support the PM on technical follow-ups, open item tracking, and stakeholder clarifications. YOUR PROFILE Business Analyst background with solid technical understanding (data platforms, ingestion, APIs) Experience in Market Data, Risk, or Trading environments Comfortable engaging both business / risk users and development teams Able to work independently on requirements engineering and reconciliation / sign-off topics Fluent English (mandatory); German is a plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)
Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage
12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Offre d'emploi
Consultant BI / Data ingénieur confirmé H/F
CONSORT GROUP
Publiée le
Ansible
Jenkins
PL/SQL
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant BI / Data ingénieur confirmé H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data, la BI et les architectures décisionnelles modernes ? Ce poste est fait pour vous. En tant que Consultant BI / Data Engineer confirmé, vous êtes responsable de la conception, de l’évolution et du maintien en conditions opérationnelles de notre écosystème décisionnel. Analyser les besoins fonctionnels et techniques des métiers Localiser et qualifier les données nécessaires Concevoir, modéliser et enrichir les datawarehouses et datamarts Développer les processus d’intégration de données (ETL / pipelines Big Data) Traiter et nettoyer les données, garantir leur qualité Participer à la migration vers le cloud, ( Databricks ) Développer et optimiser des traitements Spark Produire des rapports et tableaux de bord lisibles pour les métiers Accompagner et former les utilisateurs dans l’exploitation des données et des rapports Tester, documenter, déployer et maintenir les livrables en conditions opérationnelles Participer aux revues de code et à l’amélioration continue de l’architecture décisionnelle C’est votre parcours Minimum 5 ans d’expérience sur des fonctions BI / Data Engineer / Ingénieur Décisionnel Très bonne maîtrise de SQL Solide expérience en modélisation d’entrepôts de données (DWH, datamarts) Compétences avérées en traitement et nettoyage de données Maîtrise de Spark indispensable Expérience en accompagnement métier : ateliers, recueil de besoins, formation, support Bon niveau de développement (Spark, SQL, idéalement Python et/ou Java en plus) C’est votre expertise : Big Data : Spark (essentiel), Hive, Indexima Cloud / Data Platform : Databricks (fort enjeu de migration) Stockage : Oracle, CEPH S3 (parquet) Langages : SQL, Python, PL/SQL, Shell, Java (plus apprécié mais pas obligatoire) ETL : Informatica Dataviz : Tableau Server CI/CD & outillage : Git, Jenkins, Ansible, Terraform Ordonnancement : Control-M Méthodologie : environnement agile C’est votre manière de faire équipe : Autonomie, rigueur, sens de la qualité Esprit d’équipe, bonnes capacités de communication Curiosité, envie de comprendre le métier et les usages data Capacité d’analyse et de synthèse Force de proposition sur les solutions techniques et décisionnelles C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybrid Salaire : De 44000 € à 49000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1997 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois