Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 946 résultats.
Freelance

Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure

Publiée le
Azure
Azure DevOps
DBT

3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Freelance

Mission freelance
Data Engineer Python Azure

Publiée le
Azure
Databricks
PySpark

12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
CDI

Offre d'emploi
Data Engineer AWS

Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Freelance

Mission freelance
Data Scientist - Expertise OpenMetaData

Publiée le
API
Collibra
DataGalaxy

2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Freelance

Mission freelance
Mission Freelance – Engineering Manager

Publiée le
C#

6 mois
700-800 €
Toulouse, Occitanie
Télétravail partiel
Dans un contexte de transition organisationnelle et de montée en maturité produit , une équipe engineering basée à Toulouse renforce son pilotage technique et managérial. L’objectif est d’anticiper la réduction progressive de disponibilité d’un Engineering Manager senior actuellement en poste, tout en sécurisant le début d’année et les projets en cours. La mission s’inscrit dans un écosystème industriel complexe , mêlant logiciel, embarqué et systèmes, avec une forte interaction entre équipes techniques et métiers. La visibilité est de 6 mois à date , avec un démarrage souhaité début janvier . 🛠️ Missions principales Manager et fédérer des équipes techniques (≈ 20 collaborateurs : devs, leads techniques). Piloter la montée en compétences et l’organisation des feature teams, segmentées par métier. Fluidifier la chaîne de valeur et éviter les zones de friction opérationnelle (“pas de balle qui tombe”). Travailler en étroite collaboration avec le delivery management, les PO et les équipes métier. Accompagner la transition vers une démarche produit , dans un contexte de rationalisation des projets. Mettre en place des actions d’ amélioration continue (process, qualité, organisation). Être un EM fédérateur , facilitateur, garant de la cohérence entre vision business et exécution technique.
Offre premium
CDI

Offre d'emploi
Lead Dev

Publiée le
PowerBI
SQL

40k-60k €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Lead Developer spécialisé en technologies Microsoft Power BI & Data (H/F) . Il/elle sera associé(e) à l’ensemble des phases de développement de projets organisés en mode agile : appropriation du contexte, chiffrage, conception et développement, optimisation du code, livraison et veille technologique. Il/elle aura également la responsabilité d’accompagner la montée en compétences de développeurs juniors sur cette technologie. Missions : Accompagner et mettre en place une animation de mentoring auprès de nos développeurs BI / Data Analysts Recueillir les besoins utilisateurs, réaliser les études de faisabilité et rédiger les spécifications Concevoir, développer, déployer et maintenir des tableaux de bord et des rapports sous Power BI (Desktop & Service) Concevoir et mettre en place la modélisation des données (modèles en étoile, gestion des relations) Garantir la conformité des développements avec les standards Microsoft et ceux du GPU SNCF Garantir l’intégration des normes de sécurité (RLS – Row Level Security, gestion des accès) Réaliser des tests de cohérence des données (DAX) et assurer le dépannage Tester la qualité des données et publier les rapports (gestion des espaces de travail et des applications) Participer à la rédaction de la documentation technique et fonctionnelle afin de documenter les modèles et indicateurs existants Assurer la transformation et l’enrichissement des données via Power Query à partir des sources de production Optimiser les performances (optimisation du DAX et des temps d’actualisation) Assurer une veille technologique sur Power BI et la Power Platform, et apporter un support aux utilisateurs. Livrables : Mise en place et maintien de la documentation technique sur les projets confiés Réalisation de revues de code Respect de la chaîne de livraison et du versioning des livrables.
Freelance
CDI

Offre d'emploi
Lead ML Engineering (26)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Freelance

Mission freelance
Consultant Expert Data IA

Publiée le
Powershell
SAS

1 an
550-600 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Consultant Expert Data IA. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Tâches : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs du Client dans le PP Data et au delà.
Freelance

Mission freelance
POT8789 - Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis

Publiée le
MOA

6 mois
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, des Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis Expérience : Confirmée en maîtrise d’ouvrage SI, idéalement dans des environnements complexes ou en Asset Management. Missions principales : Analyse et rédaction des besoins métier Identifier les données impliquées et leurs typologies. Définir les indicateurs de qualité et prioriser les enjeux. Élaboration des spécifications fonctionnelles Formaliser les besoins en spécifications générales et détaillées. Pilotage et exécution des recettes Définir la stratégie, les cas de test, constituer les jeux de données et suivre les résultats. Assurer les tests fonctionnels et de non-régression. Maintien en condition opérationnelle (MCO) Garantir la continuité et l’actualisation des offres SI existantes. Product Owner / Backlog Management Identifier et prioriser les besoins fonctionnels et les évolutions de données. Rédiger users stories et spécifications détaillées. Suivi du portefeuille et comitologie Produire la météo projet, suivre le budget, la feuille de route et la commande de production annuelle. Communication et conduite du changement Diffuser l’information, rédiger articles ou supports de démonstration, et accompagner les utilisateurs. Outils collaboratifs Maintenir SharePoint et produire des indicateurs via Power BI. Profils recherchés : Consultant(e) senior MOA SI, autonome et proactif, capable de gérer des sujets complexes. Expérience confirmée en environnement complexe, idéalement en Asset Management ou gestion de portefeuille SI. Capacités d’analyse, de synthèse, d’organisation et d’animation de réunions. Maîtrise des outils collaboratifs (SharePoint, Teams), Power BI et méthodologies Agile/Product Owner. Capacité à vulgariser les sujets techniques et à produire des livrables clairs et rigoureux.
Freelance

Mission freelance
Développeur Data / Big Data – ClickHouse – Finance de Marché

Publiée le
Apache Spark
Hadoop
Jenkins

3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein d’une Direction des Systèmes d’Information d’un grand groupe international, vous intégrerez une équipe en charge du pilotage de la liquidité et de la gestion du collatéral . Cette direction mène plusieurs projets stratégiques liés à la conformité réglementaire (Bâle III, FSB, IRRBB) et au pilotage interne des risques structurels . Le bénéficiaire recherche un profil disposant d’une forte expertise technique pour accompagner l’évolution d’un socle applicatif basé sur la technologie ClickHouse® et contribuer à la restitution des données de risques structurels au niveau groupe. Missions principales : Traduire les besoins métiers en solutions techniques robustes et performantes Assurer le développement, la documentation, les tests et le déploiement du code Appliquer les bonnes pratiques internes : code review, pair programming, procédures de test et de déploiement Respecter les jalons projet et les budgets définis Contribuer à l’ industrialisation et l’optimisation des outils existants Participer aux activités de run et de build , avec possibilité d’astreintes Fournir un support technique aux équipes métier et aux utilisateurs finaux Livrables attendus : Analyse du besoin et étude d’impact technique Estimation des charges et planification des travaux Conception, développement et documentation du code Évolution, optimisation et automatisation du code existant Code reviews et tests unitaires, d’intégration et de non-régression Déploiement sur les environnements de test et de production Démonstration des livrables aux utilisateurs et support aux phases de validation (UAT) Suivi et surveillance des traitements de production
Freelance

Mission freelance
Expert Analyste data sénior

Publiée le
Confluence
JIRA
Slack

12 ans
400-510 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Expert(e) Analytics pour rejoindre la Direction Data de notre client. Missions principales Cadrage et accompagnement des équipes dans l’implémentation des outils data : identification des pré-requis, risques, parties prenantes, facteurs clés de succès et indicateurs de performance Pilotage des projets de fond : déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site-centric Monitoring automatisé et analyse des alertes Coordination avec les équipes Data, Technique, Offres numériques et RGPD Reporting et amélioration continue des outils et indicateurs Profil recherché 5+ ans d’expérience sur tracking / analytics Maîtrise de Piano, Médiamétrie, Netvigie / Seenaptic, TagCommander Compétences en gestion de projet (Jira, Confluence, Slack) Parfaite maîtrise du français Présence sur site : environ 50% Si vous êtes intéressé(e) ou connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Freelance

Mission freelance
232093/Ingénieur Cloud / DevOps Rennes

Publiée le
Cloud

3 mois
330-380 £GB
Rennes, Bretagne
Télétravail partiel
Ingénieur Cloud / DevOps Rennes Missions : Automatisation et performance : concevoir et optimiser scripts et workflows (déploiements, sauvegardes, mises à jour) pour fluidifier les opérations et renforcer l’efficacité. Observabilité : mettre en place logs, métriques, dashboards et alerting, définir une stratégie de Disaster Recovery et assurer une sécurité de bout en bout (IAM, secrets, chiffrement, CI/CD sécurisé). Analyser et optimiser les coûts d’infrastructure, accompagner les équipes dans la maîtrise budgétaire tout en préservant la performance technique. Travailler main dans la main avec les différentes équipes pour accélérer les livraisons et garantir la qualité des environnements. Transmission : partager tes bonnes pratiques, documenter les procédures et accompagner la montée en compétence des équipes (mentorat junior). Environnement technique : Cloud : maîtrise d’Azure , bonne connaissance d’AWS et GCP (est un +) IaC et orchestration: Terraform, Helm, Kubernetes/Docker Sécurité Cloud : Cloud Security Posture Management avancé, gestion des identités (Keycloak) Observabilité : Grafana CI/CD : automatisation et intégration via GitHub Actions Bases de données : MongoDB, MySQL Profil : 5 à 7 ans d'expériences en tant qu'Ingénieur DevOps (Azure) Disponible ASAP Profil Rennais ou alentours de préférences Objectifs et livrables Mises à jour, correctifs, migrations et optimisations de performance. Objectif : garantir une infrastructure stable, fiable et scalable. Compétences demandées AWS Avancé GCP Avancé Docker Kubernetes Expert Microsoft Azure Expert
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Publiée le
Big Data
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU

Publiée le
Azure
Databricks
Dataiku

3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Freelance

Mission freelance
[LFR] Compétences opérationnelles ILEX, Expert à Lille - 1103

Publiée le

10 mois
400-635 €
Lille, Hauts-de-France
Le client recherche des compétences opérationnelles autour de l'outil ILEX. Le collaboration pourra prester en full remote ssi : "dispose d’un niveau intégrateur confirmé sur Ilex, capable de réaliser un audit technique afin de monter rapidement en compétence (la passation sera limitée), qu’il maîtrise les protocoles d’authentification OIDC et SAML pour revenir à des standards RFC, former nos internes juniors sur les bonnes pratiques et accompagner nos clients aussi bien sur les aspects architecturaux que protocolaires, alors le full remote est tout à fait envisageable. L’idée est que soit autonome, force de proposition, et capable de piloter les sujets sans dépendre de l’équipe au quotidien — même si, clairement, mon équipe aura besoin de lui pour progresser. Il faut également que ne soit pas réfractaire au RUN, même si les projets ne manquent pas. Vous l avez compris nous sommes sur un périmètre équivalent à trois postes en un (tech lead , archi logiciel , Évangéliste )" Type de projet (support / maintenance / implementation /…) : Intégration, architecture, formation, audit Type de prestation (Client / Hybrid / Remote) : client, hybride ou full remote en fonction des compétences du profil Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : en fonction du profil Les astreintes (HNO, etc.) : non communiqué par le client La possibilité de renouvellement (oui/non) : oui
1946 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous