Sign up to take part
Registered users can ask their own questions, contribute to discussions, and be part of the Community!
Registered users can ask their own questions, contribute to discussions, and be part of the Community!
お世話になっております。
現在、私はAzure BLOB sotrageに保管している日付データを自動で読み込むプロジェクトを作成しております。その際にシナリオ機能を利用し、自動で読み込むためのスクリプトをPythonで書いていますが、うまくいきません。
方法をご教授いただければ幸いです。
またPython以外の方法で自動実行できる方法があれば併用で教えていただけますと幸いです。
よろしくお願いいたします。
補足情報として、日付の更新するコードはできております。
Azure BLOB sotrageに接続するPythonコードが上手く書けず、困っています。
@MunekazuK さん、ご質問ありがとうございます!
Azure Blob Storageとの接続であれば、標準コネクターで接続して、ビジュアルフロー上で変換処理を行えます。今回、Pythonコードで接続しようとされている理由は何かございますでしょうか?
Dataikuドキュメント: Azure Blob Storageとの接続
https://doc.dataiku.com/dss/latest/connecting/azure-blob.html
上記のように、シナリオからビジュアルフローを呼び出す形で対応できるのであれば、その方が良いと思います。もし、Pythonからの呼び出しが必要な背景・理由などがありましたら、その点を教えていただけますと幸いです。
ちなみに、「既存のPythonコードをそのまま使いたいため、すべてをPythonで完結させたい」ということが理由の場合、例えば以下のようなドキュメントを参考にしていただくことになると思います。(私も実際に試したわけではないので、あくまでも参考情報としてご連絡します。)
マイクロソフト社ドキュメント:Azure Blob Storage と Python で作業を開始する
上記の場合、必要に応じてPythonライブラリーをDataikuのCode Envに追加する必要があります。
ご回答ありがとうございます。
こちら説明不足で大変申し訳ございませんでした。
接続先のコネクションは用意してありますAzure Blob storageのコネクションを使用しております。
やりたいこととして、1日ごとのデータ(例2024xxxx.csv)をシナリオ機能を使って、プロジェクトにアップロードすることです。
現在できている内容は、データセットのsettingの参照の部分を変化する設定をしております。こちらは自動化(time trigger/24h)もできていますが、アップロードしていたデータを更新する動きになります。
目的は、過去のデータは残したまま、新たらしくできたデータを自動的にimportする方法が知りたいことです。(おそらくPythonでコードを書くしかないと思っております。)
もし方法をご存知でしたら教えていただければ幸いです。
よろしくお願いいたします。
背景のご説明をいただきまして、ありがとうございます!
目的は、過去のデータは残したまま、新たらしくできたデータを自動的にimportする方法が知りたいことです。(おそらくPythonでコードを書くしかないと思っております。)
そうですね・・上記の要件を実現するためには、やはりPythonのステップを記述する必要があると考えられます。何卒よろしくお願いいたします。