L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 686 résultats.
Mission freelance
DEVELOPPEUR(SE) MOBILE ReactNative - Expert (>10 ans) F/H
Publiée le
Android studio
Javascript
React Native
12 mois
400-550 €
Châtillon, Île-de-France
Télétravail partiel
-Développer une nouvelle application mobile ReactNative intégrant le parcours e-commerce en webview -Contribuer au développement du socle technique (webview, notification, deeplink, analytic, authentification) -Participer activement aux choix techniques et à la mise en œuvre - Etre force de proposition et savoir challenger les besoins métier- Contribuer au RUN de l'app mobile ANALYSE Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)
Publiée le
Azure Kubernetes Service (AKS)
CI/CD
3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Mission freelance
Data Analyst - Infogérance - Lille (H/F)
Publiée le
Microsoft Power BI
SQL
6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Offre d'emploi
Développeur / Analyste Sénior Intégrateur Progiciel EKIP360 (H/F)
Publiée le
.NET
Finance
Java
50k-60k €
Lille, Hauts-de-France
Télétravail partiel
Contexte Nous recherchons un Analyste Intégrateur confirmé pour rejoindre une équipe produit dynamique d’une quinzaine de personnes au sein d’un grand acteur du secteur financier. Vous interviendrez sur le progiciel EKIP360 de Linedata , au cœur du système d’information, dans un environnement fortement progicialisé et organisé selon les principes de l’ agilité à l’échelle (SAFe) . Vos missions Au sein de l’équipe Financement & Outils Relation Client , vous interviendrez sur un périmètre fonctionnel riche et varié, intégrant de multiples connexions avec le SI (comptabilité, services .NET, flux bancaires, éditique, SID, etc.). Vos principales responsabilités seront : La spécification et mise en œuvre des besoins métiers dans le progiciel EKIP360 (rôle mixte BA / intégrateur). Le paramétrage fonctionnel du progiciel (GA, comptabilité, produits financiers, catégories d’affaires, etc.). Le développement spécifique et l’adaptation technique de la solution. Le suivi de production (rotation matinale) et la gestion des astreintes lors des MEP importantes. La participation aux rituels agiles (daily, sprint, PI planning, rétrospective, etc.). La répartition moyenne des activités est de 60 % BUILD et 40 % RUN .
Mission freelance
Ingénieur Data Power BI
Publiée le
Microsoft Power BI
Power Automate
1 an
400-550 €
Blaye, Nouvelle-Aquitaine
Le consultant Data Power BI conçoit, développe et optimise des rapports et tableaux de bord avancés en s’appuyant sur une maîtrise experte de Power BI, incluant DAX et M. Il exploite ses compétences en Python, SQL et ELK pour structurer, analyser et visualiser des données complexes, et contribue à l’automatisation des processus via PowerAutomate et PowerApps. Capable d’intégrer des données provenant d’API REST et de renforcer l’utilisation des outils collaboratifs comme SharePoint et Excel (VBA), il accompagne les équipes métiers dans la compréhension, l’exploitation et la valorisation des données.
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Offre d'emploi
Chief Technology Officer (CTO)
Publiée le
Agile Scrum
C#
Coda
Bas-Rhin, France
Télétravail partiel
A ce jour, les rôles suivants sont présents au sein de l’équipe Piki & Co : • Direction, stratégie produit & business • Recherche et développement en didactique des langues • Game Design, level design • Concept art, Graphisme 2D Jusqu’à présent, la stratégie technique, technologique et le développement backend étaient assurés par la CEO, ingénieure logiciel de formation et ancienne architecte. Afin de lui permettre de se concentrer pleinement sur le développement de l’entreprise, vous la remplacerez dans les deux rôles suivants : • Faire évoluer le socle technique nécessaire aux game developers pour créer les scènes de jeux à l’écran, en accord avec le game design et le level design ; • Faire évoluer le socle technique de récolte et d’analyse de données nécessaires aux chercheur·e·s ; • Développer le socle technique nécessaire au développement des grandes fonctionnalités futures, notamment d’IA et de Réalité Augmentée. A moyen terme, votre mission évoluera pour assumer des responsabilités comme : • Seconder la CEO dans la stratégie de développement technique et technologique ; • Seconder la CEO dans la constitution de l’équipe technique, composée de game developer, développeur front, ingénieur data / IA, etc. ; • Piloter cette équipe technique ; • Garantir la performance et la qualité des développements ; • Etc. Cette liste est non-exhaustive et sera amenée à évoluer selon les besoins de la start-up.
Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)
Publiée le
Azure
Azure AI Foundry
6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Offre d'emploi
Chef de Projet Technique IaaS, Data & Cloud
Publiée le
Cloud
IaaS (Infrastructure-as-a-Service)
Openshift
1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Technique pour rejoindre une équipe spécialisée dans l’infrastructure, le cloud, la donnée, l’IA et le DevOps. MISSIONS PRINCIPALES : Piloter des projets sur les périmètres IaaS et DATA Définir les solutions cibles en collaboration avec les experts et les utilisateurs Coordonner l’ensemble des parties prenantes Structurer et animer la gouvernance des projets Établir et suivre les plans d’investissements et les budgets Identifier, analyser et gérer les risques projets Garantir la production des livrables selon la méthodologie interne
Mission freelance
Ingénieur DATA – Coordonnation & Support Technique IA Industrielle
Publiée le
3DEXPERIENCE (3DX)
1 an
400-550 €
Belgique
Télétravail partiel
Missions Coordination : Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher, en exploitant les techniques d’IA pour faciliter la gestion et la migration des schémas de données. Documenter, préparer et suivre les scripts et workflows de migration automatisés, assister l’identification des correspondances data via IA (machine learning, NLP…). Proposer les premiers use cases DATA & IA opérationnels pour la ligne de production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Assurer la veille et le reporting sur les sujets Data & IA, optimiser la collaboration multi-métiers. Missions Techniques : Être le bras droit du coordinateur Data, prendre en charge l’implémentation des scripts et workflows de migration de données (DataPrep, ETL, IA), sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique, etc. Structurer les datasets pour l’entraînement et le déploiement sur la ligne (règles de qualité, normalisation, automatisation des flux). Assurer la documentation technique et la transmission des compétences vers les équipes.
Offre d'emploi
Développeur Python-Linux-SQL (1-6 ans d'exp max)
Publiée le
Python
SQL
3 ans
38k-50k €
350-450 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : En salle de marchés, interface avec les traders utilisateurs, l’équipe assure le support et développement d’applications de trading automatisé. Les traders créent et font progresser leurs outils de trading grâce à un plateforme de simulation. Cet environnement de simulation recrée l’univers d’un vrai marche boursier avec la possibilité de rejouer les quotations , les placements d’ordres et les exécutions marches. Les journées de trading peuvent être rejouées jour par jour en faisant varier différents paramètres, permettant d’optimiser la production. Dans ce contexte, la mission consiste en : - Support - Développement – Recherche • Etude des rapprochements entre la simulation et la production : o Analyse des écarts : biais du simulateur, évènements particuliers, bugs, … • Maintenance de l’environnement de simulations : corrections, améliorations et ajout de fonctionnalités • Fixation des bugs des stratégies et du backtesteur • Garde d'opérationnel sur la plateforme de simulation • Développement des outils nécessaires pour que les plateformes de simulation soient fiables et performantes • Rationalisation de l’environnement de recherche • Simulation de nouveaux modèles
Offre d'emploi
Développeur c# .NET Back End (8 ans et plus)
Publiée le
.NET
.NET CORE
3 ans
60k-70k €
500-650 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Développeur C# .NET backend SENIOR (de préférence 8 ans d'expérience et plus). Merge de 2 / 3 positions layers utilises par des chaines différentes : XVA, Liquidité (RNFB, NSFR), B/S (Leverage, G-SIB, Gapping). 💡Tech Skills : -Mandatory skills: Software Craftsmanship / Clean code -Back End Skills: C# / .NET 8, ASP .NET, SQL Server, Oracle (Optional), Microservices, Messaging, asynchronous message-driven communication (Rebus), ORM libraries (Dapper), GIT (Bitbucket), TeamCity
Mission freelance
Data Analyst CRM – Adobe Campaign (Lille)
Publiée le
Microsoft Power BI
1 mois
Lille, Hauts-de-France
Télétravail partiel
Bonjour à tous, Nous recherchons un Data Analyst CRM pour rejoindre une équipe basée à Lille . L’objectif de cette mission est de concevoir et livrer un maximum de dashboards Power BI , en binôme avec un collaborateur dédié à la partie CRM, afin de fournir des analyses pertinentes et exploitables pour le pilotage des activités marketing. 🔹 Expérience indispensable en CRM 🔹 Connaissance d’ Adobe Campaign fortement appréciée 🔹 Maîtrise de Power BI 🔹 Capacité à travailler en binôme et à comprendre les enjeux marketing/CRM
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- ESN qui cherche à trop marger
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
2686 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois