Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 773 résultats.
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
CDI

Offre d'emploi
Consultant BI / Data Engineer – Secteur Gestion d’Actifs

Publiée le
DAX
Microsoft SQL Server
Microsoft SSIS

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Secteur : Finance / Gestion de fonds Localisation : Paris / Hybrid Type : CDI Notre client, un acteur majeur du secteur Finance / Gestion d’actifs , recherche un Consultant BI / Data Engineer confirmé afin d’intervenir sur des projets stratégiques de migration, d’évolution et d’optimisation des plateformes décisionnelles. 🎯 Objectif : remplacer un consultant expert, poste à compétences identiques. 🎓 Profil recherché Vous justifiez d’au moins 10 ans d’expérience en BI , avec une expertise forte sur l’environnement Microsoft BI : Compétences techniques indispensables : SQL Server (2016 → 2022) SSIS, SSRS, SSAS (Tabular & Multidimensional) Power BI (Report Server & Online) – DAX – RLS – Administration Azure DevOps / Azure DataFactory / Data Pipeline DataWarehouse, Datamarts, modélisation décisionnelle Reporting réglementaire & opérationnel Atouts supplémentaires Connaissance Fabric / Power BI Online Expérience en migration de plateformes BI Connaissance du secteur Finance / Gestion de fonds (vrai plus) 💼 Vos principales missions Migration SQL Server (2016 → 2022) et modernisation de la plateforme BI Migration SSIS, SSRS, SSAS Tabulaire / Multidimensional Migration Power BI Report Server → Power BI Online Gestion et administration des workspaces, datasets, gateways Conception et optimisation des flux d’intégration (SSIS, ADF) Développement de rapports SSRS / PBI, dashboards et cubes tabulaires Support utilisateurs + amélioration continue Participation à un environnement Agile / SCRUM
Freelance

Mission freelance
Consultant MSBI SSAS

Publiée le

18 mois
600 €
75001, Paris, Île-de-France
1. Modernisation de l'architecture Migrer le cube SSAS Multidimensional actuel vers un modèle SSAS Tabular Optimiser les modèles de données et les performances Adapter et migrer les flux d'intégration de données existants sous SSIS Refondre et migrer les rapports sous SSRS Déployer la solution complète sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.) 2. Améliorations fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par la Finance, les Ventes et autres parties prenantes métier Améliorer la logique métier existante et les règles de calcul Intégrer de nouvelles sources de données et étendre le modèle de données selon les besoins 3. Mise en oeuvre d'un système d'alerting Définir les événements métier devant déclencher des alertes automatiques Développer un mécanisme d'alerte automatisé (emails, tableaux de bord, notifications) Assurer une intégration fluide au sein de l'écosystème existant 4. Run & Support quotidien Assurer le support de niveau 2/3 et ses workflows de données Diagnostiquer les incidents et garantir la fiabilité du système Collaborer étroitement avec les utilisateurs finaux pour comprendre et résoudre les problématiques
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Consultant TALEND

Publiée le

6 mois
350 €
75001, Paris, Île-de-France
Télétravail partiel
Lieu : Paris (Nation) Type de contrat : Assistance technique Durée : Du 01/12/2025 au 31/03/2026 (85 jours) Présence sur site : 3 jours par semaine Déplacements : Non prévus TJM: 350 euros Missions principales Développement Talend sur ESB / ETL / API (version 7.3). Réflexion et préparation de la migration vers Talend V8 . Encadrement et accompagnement des profils internes clients au sein d'une équipe de 5 à 6 développeurs. Rédaction des spécifications techniques et réalisation des développements Talend . Compétences requises Talend ESB : Confirmé (impératif). Talend ETL : Confirmé (impératif). Langue : Français courant (impératif). Bonne compréhension des enjeux liés à la collecte, stockage et exploitation des flux de données . Connaissances en systèmes et sécurité des infrastructures de données . Profil recherché Data Engineer Capacité à développer, construire et maintenir des infrastructures de données. Garant de la qualité et de la sécurité des flux de données. Compétences requises Talend ESB : Confirmé (impératif). Talend ETL : Confirmé (impératif). Langue : Français courant (impératif). Bonne compréhension des enjeux liés à la collecte, stockage et exploitation des flux de données . Connaissances en systèmes et sécurité des infrastructures de données .
CDI
Freelance

Offre d'emploi
Administrateur Hadoop Infra– MCO & Exploitation (H/F)

Publiée le
Google Cloud Platform (GCP)
Hadoop
HDFS (Hadoop Distributed File System)

6 mois
40k-45k €
400-550 €
Hauts-de-Seine, France
Télétravail partiel
Contexte Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service (KaaS). Missions principales Exploitation & MCO de la plateforme Big Data - Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop. - Garantir la disponibilité, la performance et la sécurité des clusters. - Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.). - Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité. Gestion des incidents et support de niveau 2/3 - Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et proposer des plans d’actions correctifs. - Assurer le suivi jusqu’à résolution complète. - Rédiger et maintenir la documentation technique associée. Amélioration continue & automatisation - Contribuer aux améliorations continues de la plateforme : performance, architecture, déploiements. - Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…). - Participer aux évolutions de l’écosystème et aux projets de transformation Big Data. Environnement Cloud (GCP) - Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc, Cloud Storage…). - Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP. - Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP. Gestion et exploitation des plateformes KaaS - Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent interne). - Déployer et maintenir les services Data ou applicatifs tournant sur KaaS. - Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge. - Contribuer à la sécurisation et à la standardisation des déploiements. Collaboration & communication - Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et Sécurité. - Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets. - Participer aux rituels opérationnels (briefs, comités, revues techniques…). Profil recherché Compétences techniques - Maîtrise de l’écosystème Hadoop. - Connaissance opérationnelle de GCP. - Expérience en Kubernetes / KaaS. - Compétences en automatisation (Python, Shell, Ansible…). - Connaissances en monitoring (Grafana, Prometheus, ELK…). - Compréhension des enjeux de sécurité et de gouvernance des données. Soft skills - Capacité d’analyse et résolution de problèmes complexes. - Bonne communication et esprit d’équipe. - Rigueur, sens du service et autonomie. - Proactivité dans l’amélioration continue.
CDI
Freelance

Offre d'emploi
Consultant en SI

Publiée le
Talend

1 an
45k-57k €
480-520 €
Roubaix, Hauts-de-France
ELA Technology recherche pour un de ses clients un.e Consultant.e en systèmes d’informations. I. Missions : Objectig global · Accompagner la réalisation des développements ou des modifications de composants éditiques. · Rédiger des documents de conception applicative et technique à partir des documents de conception fonctionnelle. · Réaliser des plans de tests et assurer le suivi des corrections et évolutions via un outil de workflow. Livrables attendus · Documents de conception applicative · Documents de conception technique · Plans de tests Description détaillée des activités · Développement ou modification de composants éditiques · Rédaction de documents de conception applicative et technique à partir des documents fonctionnels · Réalisation des plans de tests · Utilisation d’un outil de workflow pour le suivi des corrections et évolutions
Freelance

Mission freelance
Tech Lead Talend ESB – Expertise Technique et Développement

Publiée le
Talend

12 mois
Finistère, France
Télétravail partiel
Contexte : Nous recherchons pour le compte de l'un de nos clients un Tech Lead Talend ESB pour renforcer son équipe technique dans le cadre d’un projet d’intégration et d’automatisation de ses flux logistiques. La mission débute en urgence et nécessite une expertise technique pointue pour piloter et développer des solutions basées sur Talend ESB, avec des interactions en Java. Missions principales : Expertise technique Talend ESB : Concevoir, développer et optimiser des flux d’intégration, notamment pour des processus EDI liés à la logistique. Développement Java : Intervenir sur des parties de code Java en complément des développements Talend. Tech Lead : Piloter techniquement le projet, encadrer les bonnes pratiques et garantir la qualité des livrables. Automatisation des flux : Travailler sur l’intégration des flux logistiques avec un entrepôt entièrement automatisé et un stockage sur Google Cloud. Collaboration : Travailler en étroite collaboration avec les équipes métiers et techniques pour assurer la cohérence des solutions mises en place.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Freelance
CDI

Offre d'emploi
Ingénieur GCP et devOps

Publiée le
CFT (Cross File Transfer)
CI/CD
Cloud

3 ans
40k-45k €
400-600 €
Paris, France
Télétravail partiel
Description de la mission Pour le compte d’un grand groupe du secteur bancaire , nous recherchons un(e) Ingénieur(e) cloud GCP & devOps afin de renforcer une équipe jeune, dynamique et en pleine expansion au sein de la Plateforme Data Groupe . Votre rôle : contribuer à la construction, l’industrialisation et la fiabilisation d’applications déployées sur Google Cloud Platform , dans un contexte stratégique autour de la data et de la transformation cloud. 🎯 Objectifs & Responsabilités Participer à la stratégie de développement de projets sur GCP . Contribuer à l’amélioration de l’automatisation et des chaînes CI/CD/CC . Gérer les flux de fichiers via des outils de type CFT . Assurer un support opérationnel auprès des utilisateurs internes. Prendre part aux projets techniques GCP du département. Administrer et suivre les environnements Hors-Production et Production . Garantir le bon fonctionnement des applications métiers . Traiter et résoudre les incidents de niveau 2 , incluant diagnostic et recommandations. Rédiger et maintenir la documentation technique et les procédures. Développer des scripts pour automatiser et optimiser les opérations.
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Freelance

Mission freelance
Chef de projet Data

Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
1773 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous