L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 880 résultats.
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Mission freelance
Business Analyst – Expertise Aéronautique / Opérations de Vol
Publiée le
Business Analyst
6 mois
400-550 €
Roissy-en-France, Île-de-France
Profil du candidat Contexte Pour un acteur majeur du transport aérien, nous recherchons un Business Analyst, avec une expérience dans le domaine aérien, notamment sur l'élaboration des plans de vol / ou une expérience en tant que pilote d'aéronefs, ou une appétence forte dans ce domaine. Compétences techniques : Une première expérience en tant que Business Analyst ou Product Owner dans un environnement agile (Scrum, Kanban, SAFe). Maîtrise de méthodes centrées utilisateur (design thinking…) Excellente rigueur, esprit d’analyse et sens de l’organisation. Aisance relationnelle, esprit d’équipe et proactivité. Minimum 3 ans d'expérience Compétences transverses : Niveau d’anglais niveau C1 ou C2 obligatoire. Autonomie Très bon relationnel Force de proposition Localisé en Ile de France, télétravail partiel autorisé, présentiel 3 jours par semaine.
Offre d'emploi
Business Analyst Assurance (H/F)
Publiée le
Business Analyst
2 ans
40k-71k €
400-550 €
Île-de-France, France
Télétravail partiel
En tant que Business Analyst Assurance , vos missions seront les suivantes : Recueillir et analyser les besoins des métiers (souscription, gestion, sinistres, indemnisation, finance, conformité) Rédiger les spécifications fonctionnelles et les user stories Participer à la conception des solutions fonctionnelles en lien avec les équipes IT Accompagner les métiers dans la priorisation des besoins et la définition des processus cibles Contribuer aux projets de transformation digitale et d’évolution du SI Assurance Participer aux phases de tests (recettes fonctionnelles, UAT) et à la validation des livrables Assurer le suivi des anomalies et des évolutions Rédiger la documentation fonctionnelle et assurer le support aux utilisateurs Animer des ateliers métiers et comités de suivi
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Chef de projet DATA (H/F)
Publiée le
50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Mission freelance
Business Analyst (F/H) - 92
Publiée le
Agile Scrum
Azure DevOps
6 mois
300-450 €
La Défense, Île-de-France
Dans le cadre de projets de transformation digitale et d’optimisation des processus Métiers, nous recherchons un(e) Product Owner Applications Métiers / Analyste Fonctionnel pour accompagner les équipes Métiers dans la conception et le pilotage de solutions low-code / no-code. Le poste s’inscrit dans un environnement Agile, avec de forts enjeux de valeur métier, de qualité des livrables et de performance opérationnelle. Mission BUILD Recueillir, analyser et formaliser les besoins des Métiers Animer des ateliers de cadrage et accompagner la priorisation des besoins à forte valeur ajoutée Rédiger les Epics et User Stories et gérer le backlog produit dans Azure DevOps Animer les rituels Agile et assurer le lien entre les Métiers et les équipes de développement Piloter la recette fonctionnelle et garantir la qualité des livrables Produire et maintenir la documentation projet et les guides utilisateurs Suivre les KPIs produit et proposer des axes d’amélioration continue RUN Collaborer avec la TMA afin d’assurer le Maintien en Conditions Opérationnelles (MCO) Analyser les incidents et être l’interface entre les Métiers et la TMA
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau
Publiée le
Architecture
6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
Mission freelance
Développeur Backend / Ops Cloud – Profil Hybride (PHP/Python)
Publiée le
Administration linux
API REST
Bash
3 mois
Nantes, Pays de la Loire
Ce rôle hybride est conçu pour un expert technique capable de naviguer fluidement entre le développement applicatif et les opérations d'infrastructure. Le consultant aura pour responsabilité principale de concevoir et maintenir des services backend en PHP et Python, tout en modernisant le code existant pour en assurer la sécurité et la performance. Parallèlement, il pilotera l'automatisation des environnements via des outils d'orchestration cloud, créant des workflows complexes pour fiabiliser les déploiements. Le poste inclut une dimension opérationnelle critique nécessitant d'intervenir sur le diagnostic et la résolution d'incidents transverses, en analysant des logs hétérogènes allant de l'applicatif aux couches réseaux et systèmes. Enfin, l'ingénieur garantira la qualité des livrables par l'écriture de tests automatisés et l'optimisation des pipelines d'intégration continue.
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Mission freelance
Ingénieur Cloud GCP & DevOps – Support et Évolution Infrastructure
Publiée le
Ansible
CI/CD
Cloud
6 mois
Brest, Bretagne
Au sein d'un environnement bancaire, vous assurerez le Maintien en Conditions Opérationnelles de l'infrastructure Google Cloud Platform. Votre rôle consistera à gérer les incidents et le support technique (Niveau 2/3) via ServiceNow et Jira, avec pour objectif la résolution efficace des tickets. Vous apporterez votre expertise technique sur les environnements Linux et réseaux pour le diagnostic, tout en accompagnant les utilisateurs via chat et email. Vous prendrez également en charge des opérations clés comme le déploiement d'instances (Wordpress as a Service), la configuration Datahub et la gestion IAM, en veillant constamment à la qualité de service et à la sécurité. Côté projets, vous participerez à l'évolution de l'infrastructure en appliquant les principes de l'Infrastructure as Code. À l'aide de Terraform et Ansible, vous déploierez et maintiendrez les services de la Landing Zone GCP. L'automatisation (Python) sera au cœur de votre activité pour enrichir le catalogue de services vers une offre "As a Service". Vous intégrerez également une dimension FinOps à vos missions, en configurant le monitoring budgétaire et en suivant l'obsolescence des ressources, en lien étroit avec les équipes externes.
Mission freelance
Expert Denodo (H/F)
Publiée le
Data Lake
ELK
1 an
Châtillon, Île-de-France
Télétravail partiel
Si manipuler et structurer les données est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’Expert Denodo ! 🚀 Ton challenge si tu l’acceptes : Administrer et paramétrer des requêtes dans Denodo pour répondre aux besoins métiers Assister les utilisateurs et les projets dans l’exploitation de la solution Denodo Maintenir et optimiser la plateforme pour garantir un service de qualité Structurer, intégrer et sécuriser les flux de données venant de multiples sources Participer à la supervision et au nettoyage des données pour assurer leur fiabilité Contribuer à la documentation et à la cartographie des sources de données Proposer des évolutions techniques et des améliorations des infrastructures existantes
Offre d'emploi
Data Analyst BI H/F
Publiée le
Business Intelligence
Business Object
ETL (Extract-transform-load)
36 mois
50k-60k €
450-550 €
Hauts-de-Seine, France
Télétravail partiel
Amago IT recherche dans le cadre d'une prestation de longue durée pour l'un de nos clients dans le secteur Assurance basé dans le 92 : un Data Analyste BI H/F Missions : · Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions pour répondre aux besoins internes. · Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. · Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. · Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. · Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. · Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. · Assistance aux utilisateurs pour les autonomiser. Aide à la gestion du changement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
4880 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois