Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 898 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist

ANDEMA
Publiée le
Databricks
PySpark
Python

12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance
CDI

Offre d'emploi
AI Engineer

VISIAN
Publiée le
Agent IA
Python

1 an
40k-75k €
400-800 €
Paris, France
Objet de la prestation Le bénéficiaire recherche 3 consultants AI Engineer (junior à senior) disposant d’une double compétence en intelligence artificielle générative et en développement logiciel. Positionnement Profils capables de développer des solutions IA en production, d’intégrer des LLM dans des architectures applicatives et de contribuer à leur industrialisation et à leur monitoring. Développement de solutions IA (chatbots, agents, RAG, etc.) en Python Intégration et orchestration de LLM via des frameworks type LangChain / LangSmith Conception d’architectures applicatives hybrides (IA + backend classique) Participation à la mise en place de pipelines de traitement de données et d’inférence Implémentation de mécanismes d’ observabilité (monitoring, logs, métriques, tracing) Contribution aux pratiques AI Ops / MLOps : gestion des modèles versioning déploiement monitoring en production Collaboration avec les équipes métiers, data et IT dans un environnement Agile Participation aux phases de tests, validation et amélioration continue des modèles
Freelance
CDI

Offre d'emploi
Consultant IA / DATA

Tritux France
Publiée le
Data analysis
Data science
IA Générative

3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)

Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud

6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Freelance
CDI

Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities

WHIZE
Publiée le
Big Data
Finance

3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
CDI

Offre d'emploi
Tech Lead Data Snowflake Lille

Proxiad
Publiée le
Databricks
DBT
Snowflake

48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Freelance
CDI

Offre d'emploi
Expert technique Oracle Python - ESG

Digistrat consulting
Publiée le
Oracle
PL/SQL
Python

3 ans
45k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : La plateforme ESG Data Manager permet de monitorer des produits financiers suivantes des critères environnementaux, sociaux et de gouvernance. Les données sont intégrées dans GM DWH (base Oracle Exadata). Intégration de données ESG de fournisseurs externes (fichiers, APIs) Calculs d'indicateurs dérivés de ces données Diffusion des données à d'autres systèmes internes De formation école d'ingénieur ou ayant un niveau équivalent à un Master 2, nous recherchons quelqu'un de curieux, dynamique, et force de proposition.
CDI

Offre d'emploi
Cloud Engineer – Landing Zone & API (Python)

Clostera
Publiée le
API
Cloud
DevOps

40k-55k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Dans le cadre du renforcement d’une Cloud Platform transverse , nous recherchons un Cloud Engineer expérimenté pour intervenir sur des projets stratégiques à forte criticité . L’équipe conçoit et opère des environnements Cloud sécurisés, industrialisés et scalables, avec un fort enjeu autour de la Landing Zone, des APIs internes et de l’automatisation des déploiements . Ce que vous ferez : Développement d’APIs Cloud Concevoir et développer des APIs internes ( FastAPI / Flask ) Structurer les APIs (OpenAPI, versionning, documentation) Garantir la maintenabilité et la robustesse Sécurité & gouvernance Mettre en œuvre : Authentification ( OIDC ) Gestion des accès ( RBAC ) Sécurisation des flux (rate limiting, validation) Gérer les secrets et la configuration sécurisée Automatisation & CI/CD Déployer via pipelines GitLab CI/CD (GitOps) Conteneuriser les applications ( Docker ) Industrialiser les workflows de build / test / release Infrastructure & Cloud Engineering Provisionner et orchestrer via Terraform Intégrer avec : DNS Load balancers / proxies (NGINX, HAProxy, Envoy…) Stockage Cloud Gestion des secrets Observabilité & fiabilité Mettre en place : Logs centralisés Monitoring / métriques Tracing Définir : SLI / SLO alerting runbooks Qualité & industrialisation Implémenter : tests unitaires / intégration / charge Garantir : résilience rollback maîtrisé Documenter : standards templates bonnes pratiques
Freelance
CDI
CDD

Offre d'emploi
Développeur Python Senior (H/F)

QODEXIA
Publiée le
Python
React

10 jours
46k-48k €
440 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Notre client, leader mondial de l’énergie bas carbone et des services, s’appuie sur sa Business Unit Supply & Energy Management (S&EM) pour fournir une énergie fiable, durable et accessible. Dans le cadre de sa stratégie de décarbonation, il joue un rôle clé dans la gestion et L’équipe Renewable Energy Systems IS (RES IS) développe des outils critiques pour exploiter et piloter les actifs “verts”, avec un fort accent sur la collecte et l’analyse des données issues des centrales éoliennes et solaires. En rejoignant cette équipe composée de Business Analysts, Architectes SI, Développeurs et Data Analysts, vous contribuerez directement à : · l’optimisation des actifs renouvelables. · l’optimisation des actifs énergétiques · les stratégies de trading · l’intégration des énergies renouvelables
898 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous