Gradio와 Steamlit의 코드 및 인터페이스 비교

Gradio와 Steamlit의 코드 및 인터페이스 비교
Photo by Ben Kolde / Unsplash

Gradio

import tensorflow as tf  
import numpy as np  
import gradio as gr  
  
# MNIST 데이터 로드  
(x_train, y_train), (x_test, y_test) = tf.keras.datasets.mnist.load_data()  
  
# 데이터 전처리  
x_train = x_train.reshape(-1, 28, 28, 1).astype('float32') / 255  
x_test = x_test.reshape(-1, 28, 28, 1).astype('float32') / 255  
  
# 모델 정의  
def create_model():  
    model = tf.keras.Sequential([  
        tf.keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)),  
        tf.keras.layers.MaxPooling2D((2, 2)),  
        tf.keras.layers.Flatten(),  
        tf.keras.layers.Dense(128, activation='relu'),  
        tf.keras.layers.Dense(10, activation='softmax')  
    ])  
    model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])  
    return model  
  
model = create_model()  
  
# 학습 함수  
def train_model():  
    class AccuracyCallback(tf.keras.callbacks.Callback):  
        def __init__(self):  
            self.accuracies = []  
  
        def on_epoch_end(self, epoch, logs=None):  
            self.accuracies.append(logs['accuracy'])  
  
    accuracy_callback = AccuracyCallback()  
  
    history = model.fit(x_train, y_train, epochs=3, validation_split=0.1, verbose=0,   
                        callbacks=[accuracy_callback])  
      
    accuracy_text = "Training accuracies:\n"  
    for epoch, acc in enumerate(accuracy_callback.accuracies, 1):  
        accuracy_text += f"Epoch {epoch}: {acc:.4f}\n"  
    accuracy_text += f"\nFinal accuracy: {accuracy_callback.accuracies[-1]:.4f}"  
    return accuracy_text  
  
# 예측 함수  
def predict():  
    idx = np.random.randint(0, len(x_test))  
    image = x_test[idx]  
    true_label = y_test[idx]  
      
    prediction = model.predict(image[np.newaxis, ...])[0]  
    predicted_label = np.argmax(prediction)  
      
    display_image = (image.reshape(28, 28) * 255).astype(np.uint8)  
      
    return (f"Predicted: {predicted_label}, True: {true_label}", display_image)  
  
# Gradio 인터페이스  
with gr.Blocks() as demo:  
    gr.Markdown("# MNIST 분류기")  
      
    with gr.Row():  
        train_button = gr.Button("학습")  
        output_text = gr.Textbox(label="학습 결과", lines=7)  
      
    with gr.Row():  
        predict_button = gr.Button("예측")  
        output_label = gr.Textbox(label="예측 결과")  
        output_image = gr.Image(label="예측 이미지")  
      
    train_button.click(train_model, outputs=output_text)  
    predict_button.click(predict, outputs=[output_label, output_image])  
  
demo.launch()

Streamlit

import streamlit as st  
import tensorflow as tf  
import numpy as np  
import matplotlib.pyplot as plt  
  
# MNIST 데이터 로드  
@st.cache_resource  
def load_data():  
    return tf.keras.datasets.mnist.load_data()  
  
(x_train, y_train), (x_test, y_test) = load_data()  
  
# 데이터 전처리  
x_train = x_train.reshape(-1, 28, 28, 1).astype('float32') / 255  
x_test = x_test.reshape(-1, 28, 28, 1).astype('float32') / 255  
  
# 모델 정의  
@st.cache_resource  
def create_model():  
    model = tf.keras.Sequential([  
        tf.keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)),  
        tf.keras.layers.MaxPooling2D((2, 2)),  
        tf.keras.layers.Flatten(),  
        tf.keras.layers.Dense(128, activation='relu'),  
        tf.keras.layers.Dense(10, activation='softmax')  
    ])  
    model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])  
    return model  
  
model = create_model()  
  
# 학습 함수  
def train_model():  
    class AccuracyCallback(tf.keras.callbacks.Callback):  
        def on_epoch_end(self, epoch, logs=None):  
            accuracy = logs.get('accuracy')  
            st.session_state.accuracies.append(accuracy)  
            st.session_state.progress_bar.progress((epoch + 1) / 5)  
            st.session_state.status_text.text(f"Epoch {epoch + 1}/5 completed")  
  
    accuracy_callback = AccuracyCallback()  
      
    history = model.fit(x_train, y_train, epochs=5, validation_split=0.1, verbose=0,   
                        callbacks=[accuracy_callback])  
      
    st.session_state.trained = True  
  
# 예측 함수  
def predict():  
    idx = np.random.randint(0, len(x_test))  
    image = x_test[idx]  
    true_label = y_test[idx]  
      
    prediction = model.predict(image[np.newaxis, ...])[0]  
    predicted_label = np.argmax(prediction)  
      
    return image, predicted_label, true_label  
  
# Streamlit 앱  
st.title("MNIST 분류기")  
  
if 'trained' not in st.session_state:  
    st.session_state.trained = False  
    st.session_state.accuracies = []  
  
col1, col2 = st.columns(2)  
  
with col1:  
    if st.button("학습"):  
        st.session_state.accuracies = []  
        st.session_state.progress_bar = st.progress(0)  
        st.session_state.status_text = st.empty()  
        train_model()  
        st.session_state.progress_bar.empty()  
        st.session_state.status_text.empty()  
          
        accuracy_text = "Training accuracies:\n"  
        for epoch, acc in enumerate(st.session_state.accuracies, 1):  
            accuracy_text += f"Epoch {epoch}: {acc:.4f}\n"  
        accuracy_text += f"\nFinal accuracy: {st.session_state.accuracies[-1]:.4f}"  
        st.text_area("학습 결과", accuracy_text, height=200)  
  
with col2:  
    if st.button("예측"):  
        if not st.session_state.trained:  
            st.warning("먼저 모델을 학습시켜주세요.")  
        else:  
            image, predicted_label, true_label = predict()  
            st.image(image.reshape(28, 28), caption=f"Predicted: {predicted_label}, True: {true_label}", width=200)  
  
st.markdown("---")  
st.markdown("학습 버튼을 눌러 모델을 학습시킨 후, 예측 버튼을 눌러 랜덤한 MNIST 이미지에 대한 예측을 확인하세요.")
  • 학습시에는 Progess Bar로 진척도를 보여주다가 종료되면 Epoch별 Metric을 보여주었는데, 예측버튼 클릭시이 부분이 사라졌다

Read more

ML 코드 작성시 유의사항

ML 코드 작성시 유의사항

유의사항 * 코드의 작성방식: 다른사람이 코드를 읽고 이해할 수 있는가? * 코드의 성능: 의도치 않은 부작용이 발생하는가? * 코드의 복잡성: 유스케이스에 비해 설계가 과도하고 부족한가 * 개선의 용이성: ML코드가 지속적으로 리팩토링 되는가? 코드 작성방식에 따른 개발자(+데이터과학자)의 유형 분류 출처 * 머신러닝 엔지니어링 인 액션

ELPD는 모델이 새로운 데이터를 얼마나 잘 예측하는지를 보여주는 지표입니다.

ELPD는 모델이 새로운 데이터를 얼마나 잘 예측하는지를 보여주는 지표입니다.

기본 개념 * ELPD(Expected Log Predictive Density)는 모델이 새로운 데이터를 얼마나 잘 예측하는지를 나타내는 지표로, 주어진 데이터 포인트에 대해 모델이 예측한 확률의 로그 값(로그확률)을 합산한 것입니다. $$\text{ELPD} = \sum_{i=1}^{n} \log p(y_i \mid \text{data})$$ * $n$: 데이터 포인트의 수 * $y_i$ : 실제 관측된

잭나이프 샘플링은 표본의 변동성 추정 방법중 하나입니다.

잭나이프 샘플링은 표본의 변동성 추정 방법중 하나입니다.

잭나이프 샘플링이란? * 잭나이프 샘플링은 표본 데이터에서 하나의 관측치를 제거한 여러 하위 샘플을 만들어, 이들 샘플에 대해 통계량을 계산한 후 그 결과를 바탕으로 전체 표본의 변동성을 추정하는 방법입니다. 잭 * 나이프는 주로 표본의 분산을 추정하거나 통계량의 편향을 줄이기 위해 사용됩니다. 예시 * 주어진 표본이 [x1, x2, x3, x4]라면, 잭나이프 샘플링은 다음과 같은

정확한 단위로 대화를 하는 것이 중요합니다.

정확한 단위로 대화를 하는 것이 중요합니다.

자전거를 타고 약속장소로 이동하는 중이었습니다. 근처 과일 가게에 이런 문구가 적혀있었습니다. "한 상자에 X,000원" 과일을 직접 사먹지는 않는 편이기 때문에 가격은 모르지만 꽤 매력적인 가격대였습니다. 그래서 잠시 "살까?" 망설였습니다. 하지만 이내 자전거를 타고 다시 가던 길을 갔습니다. 한 상자 안에 몇개가 들어가 있을지를 몰랐기 때문입니다.