L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 384 résultats.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Mission freelance
Chef de projet senior Data - Temps partiel
Publiée le
Data analysis
Data Warehouse
RGPD
18 mois
100-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Experience : 10 ans et plus Métiers Fonctions : Data Management, Chef de projet Senior Spécialités technologiques : Transformation digitale Mission L’organisation souhaite structurer et mettre en œuvre une gouvernance de la donnée pour soutenir sa transformation digitale, améliorer son excellence opérationnelle et piloter ses activités à partir de données fiables, accessibles et sécurisées. Nous recherchons un chef de projet senior spécialisé en data pour poursuivre la construction de la gouvernance de la donnée et garantir son intégration dans les outils, les méthodes et l’architecture fonctionnelle et technique en cours d’urbanisation. MISSION : Le consultant devra notamment : - Structurer et déployer une gouvernance de la donnée adaptée au contexte. - Diffuser les concepts fondamentaux de la data dans les méthodes et projets existants - Veiller à la bonne prise en compte des exigences data dans les systèmes techniques et métiers, ainsi qu’à la mise à disposition autonome des données via des outils de data visualisation - Challenger la démarche existante, les actions et les ressources au regard de la feuille de route et des ambitions - Sécuriser la méthode et les étapes pour accompagner la montée en maturité data Le consultant collaborera étroitement avec : - Un chef de projet data déjà en poste, notamment sur les problématiques liées à la dématérialisation - La direction numérique, la DSI et les directions métiers Expertise souhaitée - Expérience confirmée en gouvernance de la donnée et projets data - Maîtrise des enjeux réglementaires (ex. : RGPD) - Connaissance des architectures data (data lake, data warehouse, MDM) - Compétences en pilotage de projets complexes et conduite du changement - Capacité à vulgariser les concepts data et à mobiliser les parties prenantes
Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)
Publiée le
BigQuery
Data analysis
Data cleaning
6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Mission freelance
Data analyst Power BI / Cognos Orleans. 2 jours de TT.
Publiée le
Cognos
Microsoft Power BI
12 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Data analyst Power BI / Cognos Orleans. 2 jours de TT. Environnement technique : Microsoft Power BI Desktop, Report server IBM COGNOS Analytics C11. Base de données : HP Vertica 10.1. Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Autour de Power BI : être le point de contact technique des utilisateurs finaux ou des réalisateurs de Power BI Desktop, réalisation de reporting complexes Conception et implémentation de Datamarts Autour de COGNOS : analyse d’expression de besoin, création et évolution de rapport / Conception de pack Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. Connaissances organisationnelles : Suivi de projet en tant que contributeur MOE Relation avec un infogérant Relation avec des équipes sécurité / réseau /etc. Connaissances techniques : Le profil recherché doit maitriser les solutions techniques suivantes : Power BI Desktop / Power BI Report Server / DAX / RLS - expérience : 2 années minimum Modélisation de données : constitution de datamart - expérience : 4 années minimum COGNOS C11 : conception de rapport - expérience : 1 années minimum COGNOS C11 : framework - expérience : 1 années minimum Optimisation SQL - expérience : 4 années minimum Idéalement des connaissances sur l’administration fonctionnelle ou technique d’une plateforme Power BI Report server (on premise) Il faut la double compétence Power Bi / Cognos et un très bon relationnel.
Offre d'emploi
DATA ANALYSTE Communication Digitale
Publiée le
Transformation digitale
18 mois
40k-45k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE La prestation se déroulera pour le compte de la direction de la communication digitale pour conduire les analyses quantitatives et qualitatives relatives à la réputation sur les réseaux sociaux et le web. MISSIONS : Cette prestation aura pour objectif de : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées pour la réalisation de la prestation : - Une expérience d’au moins un an dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences similaires, en social listening. Une maîtrise préalable avancée d’outils de social listening est attendue. La maîtrise de Talkwalker sera très appréciée. Une expérience extensive avec X Pro (Tweetdeck) constitue un avantage pour la prestation, de même que des connaissances dans l’utilisation de Gephi et d’outils d’IA générative. - Des expériences en matière d’études réputationnelles et de marketing d’influence, ainsi que la maîtrise d’outils de recherche et d’analyse de profils d’influenceurs, constituent un avantage fort pour la prestation. - Une excellente aisance rédactionnelle est nécessaire. - Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Offre d'emploi
Ingénieur(e) Design Pixel - Semi Conducteur - Grenoble - H/F
Publiée le
45k-60k €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du poste Notre société technologique indépendante, implantée depuis plus de quinze ans au cœur de la région grenobloise, conçoit et industrialise des solutions microélectroniques complexes destinées à des marchés exigeants : spatial, défense, santé, sécurité et environnement . Face à la croissance de nos projets et à la complexité croissante des développements produits, nous renforçons notre équipe avec un(e) Ingénieur(e) Design Pixel Vous interviendrez au cœur du développement des architectures pixel de nos capteurs, dans un environnement mêlant électronique, physique des semi-conducteurs, simulations électro-optiques et interactions fortes avec l’ensemble des métiers internes. Missions principales Concevoir des pixels adaptés aux besoins clients et produits : définir et sélectionner l’architecture la plus pertinente, proposer des approches innovantes, intégrer la matrice de pixels dans l’architecture globale du capteur. Réaliser l’ensemble des activités de CAO liées au design pixel : estimation des performances, réalisation du layout, simulations électriques, vérifications DRC/LVS. Mettre en œuvre des simulations électro-optiques avancées (TCAD Synopsys Sentaurus / Centaurus) : modélisation du dispositif, maillage, analyse de la physique photon-matière. Rédiger les documents techniques et livrables projet : spécifications, rapports, notes de conception. Contribuer au développement du pixel dans le capteur : analyse détaillée des défauts, identification des correctifs, validation des performances. Participer aux campagnes de caractérisation électro-optique : pilotage ou supervision des mesures, analyse des données, vérification de la cohérence entre théorie, simulations et résultats. Contribuer à la veille technologique et à l’amélioration continue. Participer aux études amont et analyses de faisabilité .
Mission freelance
INGENIEUR/ADMINISTRATEUR SYSTEME ET RESEAU
Publiée le
Ansible
Azure
Fortinet
6 mois
300-350 €
Vendée, France
Télétravail partiel
- Maintenir en condition opérationnelle les systèmes, réseaux et services applicatifs. - Collaborer avec les équipes internes pour les déploiements applicatifs. - Exploiter et améliorer les outils d’automatisation et de supervision. - Documenter les environnements et procédures pour garantir une base de connaissance fiable. - Contribuer à la continuité des opérations et au transfert de connaissance. Assurer la continuité opérationnelle de l’infrastructure et documenter les environnements pour faciliter la reprise par les nouveaux effectifs.
Mission freelance
Data Scientist - (h/f)
Publiée le
12 mois
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Mission freelance
Data Scientist (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Offre d'emploi
Data analyste
Publiée le
JIRA
Microsoft Excel
1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Prestation de Data AnalyseDéfinition du besoin La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel majeur. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance des contenus jeunesses. Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existant sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Offre d'emploi
Data Analyste
Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)
1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
Mission freelance
Expert Big Data – Spark / Airflow – Secteur Bancaire
Publiée le
Apache Airflow
Apache Spark
12 mois
400-460 €
Montreuil, Île-de-France
Dans le cadre de notre développement, nous recherchons un Expert Big Data pour accompagner un acteur majeur du secteur bancaire sur des projets stratégiques liés à la transformation et à l’optimisation de ses plateformes de données. Le consultant aura un rôle clé dans l’architecture et la mise en œuvre des pipelines Big Data, garantissant performance, scalabilité et conformité aux exigences métier et réglementaires. Objectifs de la mission : Conception et développement de pipelines Big Data Définir et mettre en place des architectures de traitement de données complexes. Développer et optimiser des workflows Spark et Airflow pour des traitements batch et temps réel. Assurer la qualité, la fiabilité et la performance des pipelines. Support stratégique et technique Conseiller les équipes sur les choix technologiques et les bonnes pratiques Big Data. Participer à la définition de la stratégie de données et à la roadmap technique. Collaborer étroitement avec les équipes métier et IT pour anticiper les besoins et prioriser les évolutions. Gouvernance et qualité des données Garantir la conformité des pipelines aux normes de sécurité et réglementaires du secteur bancaire. Mettre en place des mécanismes de supervision, de monitoring et d’alerte. Assurer la documentation technique et fonctionnelle des solutions déployées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3384 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois